Musik, Malware, Megamodelle: Die spannendsten KI News und Model Leaks
Shownotes
In dieser Folge quatschen wir darüber, wie sich KI und Kreativwelt gerade zurechtruckeln: von GEMA vs. OpenAI und der Frage, wie fair KI mit Musik umgehen muss, über die Udio-/Universal-Deal-Story hin zu Agenten, die für uns shoppen oder Code schreiben. Wir streifen neue Modelle und Gerüchte aus China, Big Tech und Open Source und schauen, was das für Wettbewerb, Energieverbrauch und unseren Alltag mit KI bedeutet. Dazu gibt es ein paar ganz praktische Einblicke in unsere Workflows mit Tools wie Freepik Spaces, Adobe KI Features und Slack-Agents – und warum kritisches Denken wichtiger bleibt als jedes neue Modell-Update.
Links aus der Folge
GEMA Urteil zu ChatGPT und Songtexten https://www.gema.de/de/w/grundsatzurteil-gema-gegen-openai
Udio & Universal Music – Deal zur KI Musikplattform https://www.universalmusic.com/universal-music-group-and-udio-announce-udios-first-strategic-agreements-for-new-licensed-ai-music-creation-platform/
Amazon vs. Perplexity / Comet Browser https://www.reuters.com/business/retail-consumer/perplexity-receives-legal-threat-amazon-over-agentic-ai-shopping-tool-2025-11-04/
Kimi K2 Thinking von Moonshot AI https://huggingface.co/moonshotai/Kimi-K2-Thinking
Freepik Spaces https://www.freepik.com/spaces
Adobe Max 2024 – KI Features https://blog.adobe.com/en/publish/2024/10/14/adobe-max-2024-more-power-creators
Yann LeCun verlässt Meta https://www.reuters.com/technology/meta-chief-ai-scientist-yann-lecun-plans-exit-launch-startup-ft-reports-2025-11-11/
Google Project Suncatcher (KI im All) https://research.google/blog/exploring-a-space-based-scalable-ai-infrastructure-system-design/
PromptFlux Malware https://thehackernews.com/2025/11/google-uncovers-promptflux-malware-that.html
Analyse zur BBC KI Fehlerstudie https://joshbersin.com/2025/10/bbc-finds-that-45-of-ai-queries-produce-erroneous-answers/
Transkript anzeigen
00:00:00: Speaker 1: New Minds AI. Eure wöchentliche Dosis KI mit Jens und Max.
00:00:07: Speaker 1: Seid dabei, wenn wir die Zukunft erkunden.
00:00:14: Speaker 2: Herzlich willkommen zu einer neuen Folge New Minds AI.
00:00:17: Speaker 2: Ich bin der Max und heute sitzt mir sehr gut vorbereitet und wie immer hochmotiviert mein Partner Jens gegenüber.
00:00:23: Speaker 2: Hallo Jens, schön, dass du da bist.
00:00:25: Speaker 3: Moin Max, ja schön mal wieder mit dir zu quatschen.
00:00:28: Speaker 3: Du bist ja diesmal auch hervorragend vorbereitet.
00:00:30: Speaker 3: Deswegen lassen wir uns direkt mal rein starten, oder?
00:00:33: Speaker 2: Genau, wir hatten ja, bevor wir rein starten und heute eine tolle Update-Folge haben,
00:00:37: Speaker 2: die ja sozusagen immer gewünscht ist, haben wir eine Folge aufgenommen letztes Mal.
00:00:42: Speaker 2: Da ging es um das Thema Sichtbarkeit in der KI-Ära mit dem Felix.
00:00:47: Speaker 2: Und die hast du sicherlich sehr gut gehört, Jens.
00:00:51: Speaker 2: Und fandest sicherlich auch, obwohl du sehr kritisch bist, wenn es um Inhalte geht,
00:00:57: Speaker 2: hast du da sicherlich auch ein paar gute Sachen mitgenommen.
00:00:59: Speaker 2: Klar, natürlich.
00:01:01: Speaker 3: Also ich war lustigerweise in der Gondel im Urlaub,
00:01:04: Speaker 3: als ich da gerade so reingehört habe.
00:01:08: Speaker 3: Und dann rät es natürlich weiter.
00:01:10: Speaker 3: Nee, super wichtiges Thema.
00:01:12: Speaker 3: Ich glaube, da kann man viel diskutieren.
00:01:14: Speaker 3: Und ich glaube, es sind viele Sachen,
00:01:16: Speaker 3: wo Marken sich auch einfach umstellen,
00:01:17: Speaker 3: wo sich gerade Sachen verändern.
00:01:19: Speaker 3: Weg von, wir machen einfach nur ein bisschen anders SEO,
00:01:22: Speaker 3: so hin, dass wir vielleicht auch Marketing ein bisschen anders denken
00:01:24: Speaker 3: und vielleicht auch KPIs ein bisschen hinterfragen.
00:01:26: Speaker 3: Deswegen glaube ich, super relevantes Thema.
00:01:28: Speaker 3: Coole Folge mal wieder.
00:01:30: Speaker 3: Aber das weißt du ja selber.
00:01:31: Speaker 3: Hast du davon über Lob bekommen.
00:01:33: Speaker 3: Nein, aber war ein cooles Ding.
00:01:34: Speaker 3: Ich glaube, wichtiges Thema.
00:01:36: Speaker 3: Und da wird sich in den nächsten Jahren noch was entwickeln.
00:01:39: Speaker 3: Ich bin auch gespannt,
00:01:40: Speaker 3: wie sich diese ganze AI-Search-Update-Thematik entwickelt.
00:01:44: Speaker 3: Wie viele Veränderungen wir da noch sehen werden.
00:01:47: Speaker 3: Weil wir nehmen jetzt das, was wir jetzt haben,
00:01:49: Speaker 3: machen über Listicles, denken, Listicles ist geil und läuft.
00:01:52: Speaker 3: Und das wird sich ja weiterentwickeln.
00:01:55: Speaker 3: mal gucken, wo wir in einem Jahr oder sowas stehen,
00:01:57: Speaker 3: was AI-Search angeht.
00:01:59: Speaker 2: Das ist wahrscheinlich dann ein alter Hut und dann lachen wir uns
00:02:01: Speaker 2: wieder ins Fäustchen, dass wir gedacht haben.
00:02:02: Speaker 2: Und dann gibt es wahrscheinlich Brain-Search
00:02:05: Speaker 3: oder Glasses-Search,
00:02:07: Speaker 3: wo wir eine Brille auf dem Kopf haben und dann
00:02:09: Speaker 3: einfach nur die Brille für uns sucht.
00:02:11: Speaker 3: Das stimmt, ja.
00:02:13: Speaker 2: Also, aber das,
00:02:15: Speaker 2: wir haben ja heute einen Haufen
00:02:17: Speaker 2: News dabei und ich glaube,
00:02:19: Speaker 2: fernab von dem, dass wir
00:02:21: Speaker 2: uns immer wieder gerne hören und
00:02:23: Speaker 2: immer wieder updaten und ich glaube auch,
00:02:24: Speaker 2: Unsere Zuhörerinnen und Zuhörer immer so versuchen, die geballten Neuigkeiten der KI-Welt einfach verständlich rüberzubringen.
00:02:32: Speaker 2: Starten wir doch gleich mal rein mit einem Thema, was ja aus Deutschland gestern, vorgestern Welle gemacht hat.
00:02:38: Speaker 2: Aus Bayern.
00:02:39: Speaker 2: Aus Bayern sogar. Ja, positiv aufgefallen. Und zwar geht es um das Thema OpenAI und GEMA.
00:02:46: Speaker 2: Was ist denn da passiert?
00:02:48: Speaker 2: Da gab es ja das Thema, dass die GEMA auch mehr Eifer klagt hat bezüglich Urheberrechtsverletzung, weil die GEMA nämlich gesagt hat, also die KI, die kann erschreckenderweise die ganzen Songtexte von berühmten MusikerInnen sehr, sehr getreu und richtig nachschreiben.
00:03:05: Speaker 2: Ich wollte schon sagen nachsingen. Und das ist doch eine Urheberrechtsverletzung.
00:03:10: Speaker 2: Und es wurde Klage eingereicht und hier in München am Ende des Tages gestern ist das Urteil gefallen
00:03:19: Speaker 2: und die Richterinnen und Richter haben der GEMA Recht gegeben, was natürlich ein Meilenstein in der Rechtsprechung auch ist.
00:03:29: Speaker 2: Und natürlich auch noch wahrscheinlich eine Instanz weitergehen wird, so wie wir OpenAI kennen oder die Amis kennen,
00:03:34: Speaker 2: werden sie natürlich versuchen,
00:03:37: Speaker 2: erst mal das über eine weitere Instanz
00:03:40: Speaker 2: dann nochmal regeln zu lassen,
00:03:41: Speaker 2: ob dem so wirklich ist.
00:03:43: Speaker 2: Aber es war schon sehr, sehr interessant zu sehen.
00:03:48: Speaker 2: Und was ich am coolsten fand,
00:03:50: Speaker 2: ist tatsächlich die Kommentarspalte
00:03:53: Speaker 2: auf Social Media bezüglich der Postings,
00:03:55: Speaker 2: zum Beispiel von der Tagesschau
00:03:56: Speaker 2: oder Öffentlich-Rechtlichen oder Zeitungen.
00:03:59: Speaker 2: Und die Kommentare waren echt geil.
00:04:01: Speaker 2: Ich glaube, die GEMA hat gestern
00:04:04: Speaker 2: sehr viele SympathieträgerInnen dazugewonnen,
00:04:06: Speaker 2: weil die GEMA hat ja nicht nur Fans,
00:04:08: Speaker 2: sondern sehr viele Hater bezüglich GEMA-Gebühren
00:04:10: Speaker 2: und Co. Aber waren
00:04:12: Speaker 2: sowas wie Endgegner. Selbst für die
00:04:14: Speaker 2: KI ist Endgegner GEMA.
00:04:17: Speaker 2: Und
00:04:19: Speaker 2: davor
00:04:20: Speaker 2: hat selbst die
00:04:21: Speaker 2: KI Angst.
00:04:23: Speaker 2: GEMA und
00:04:27: Speaker 2: Helene Fischer
00:04:28: Speaker 2: und Finanzamt.
00:04:30: Speaker 3: Stimmt.
00:04:31: Speaker 3: Kann ich auch voll verstehen.
00:04:33: Speaker 3: Ich hätte nicht damit gerechnet,
00:04:37: Speaker 3: dass die GEMA hier mit einem Sieg rausgeht,
00:04:39: Speaker 3: auch wenn es noch keine finale Entscheidung ist.
00:04:41: Speaker 2: Ich denke, da werden auch noch weitere Instanzen folgen.
00:04:43: Speaker 3: Aber was ich ganz interessant finde,
00:04:46: Speaker 3: dass natürlich, wenn man das technologisch betrachtet,
00:04:49: Speaker 3: dass ja eigentlich gar keine Memorization stattfindet.
00:04:55: Speaker 3: Das wird ja in dem Sinne nicht gespeichert und wiedergegeben,
00:04:57: Speaker 3: sondern eigentlich nur über die Vorhersage
00:05:00: Speaker 3: des Transformer-Modells ja vorhergesagt.
00:05:04: Speaker 3: Aber ja scheinbar so genau. Und da bin ich auch gespannt, was für Filter da entstehen. Weil ich glaube, so ein Unlearning von Helene Fischer Songtexten, ich weiß nicht, ob das passieren wird. Ich denke, da werden vielleicht einfach Filter im Input oder im Output irgendwie passieren.
00:05:21: Speaker 2: Ja, ist es schon. Ist schon, witzigerweise.
00:05:24: Speaker 3: Ja? Hast du probiert?
00:05:26: Speaker 2: Ja, und da war dann urheberrechtlich geschützt.
00:05:28: Speaker 2: Es haben auch ganz viele auf LinkedIn folge ich
00:05:31: Speaker 2: der unterschiedlichen Anwälten.
00:05:32: Speaker 2: Und da war dann in der Kommentarspalte auch schon,
00:05:34: Speaker 2: also bei mir geht es schon, das nicht mehr.
00:05:36: Speaker 2: Und wenn ich es jetzt so eingebe, fängt er an
00:05:38: Speaker 2: und dann hört er auf und sagt, das ist urheberrechtlich geschützt.
00:05:41: Speaker 2: Ich kann dir aber den Inhalt zusammenfassen,
00:05:43: Speaker 2: um was es in dem Song geht.
00:05:45: Speaker 2: Bei mir sagt er, oder soll ich parodieren
00:05:47: Speaker 3: oder was Kreatives draus machen?
00:05:49: Speaker 3: Ja, ich glaube, da muss man halt einfach auch schnell reagieren.
00:05:51: Speaker 3: Aber ich bin gespannt, ob da weitere Cases nachkommen.
00:05:55: Speaker 3: gerade auf EU-Ebene,
00:05:57: Speaker 3: wie weit das noch trägt und
00:06:00: Speaker 3: was das dann auch auf andere Sachen...
00:06:01: Speaker 3: Ich finde Songtexte so krass, dass das jetzt ein Thema ist,
00:06:03: Speaker 3: aber das kann es natürlich super nachweisen,
00:06:06: Speaker 3: dass das halt hundertprozentig
00:06:07: Speaker 3: ist oder nicht.
00:06:10: Speaker 3: Und ja, schon
00:06:11: Speaker 3: ein krasser Case.
00:06:13: Speaker 3: Ich bin gespannt,
00:06:16: Speaker 3: was die finale Entscheidung wird oder ob es
00:06:17: Speaker 3: einfach am Ende des Tages ein paar Filter sind
00:06:19: Speaker 3: und man sagt, wer sich beschwert, wird halt irgendwie
00:06:21: Speaker 3: opt-outet und dann ist das irgendwie weg,
00:06:23: Speaker 3: dann filtern wir es irgendwie raus
00:06:25: Speaker 3: und dann war es das.
00:06:28: Speaker 3: Ich kann mir vorstellen, dass man über gewisse Jailbreaks
00:06:31: Speaker 3: auch irgendwie nochmal an die Sachen rankommt.
00:06:34: Speaker 3: Also bei so einem Unlearning
00:06:36: Speaker 3: stelle ich mir jetzt echt mal ziemlich schwer vor,
00:06:37: Speaker 3: das komplett rauszunehmen irgendwie.
00:06:39: Speaker 2: Nö, das würde auch gar nicht mehr gehen.
00:06:40: Speaker 2: Ich glaube, da sind die Modelle schon viel zu weit trainiert.
00:06:43: Speaker 2: Ich hätte irgendeinen mal in der Kommentarspeite gesagt,
00:06:45: Speaker 2: da kannst du das Modell dann in die Tonne treten.
00:06:48: Speaker 2: Ich glaube, ich würde eine Filterfunktion sein.
00:06:50: Speaker 3: Ich glaube nicht daran, dass ein OpenAI sagt,
00:06:52: Speaker 3: ich trainiere jetzt ein Modell neu,
00:06:53: Speaker 3: weil die GEMA, also das wäre krass,
00:06:55: Speaker 3: aber glaube ich jetzt mal nicht dran.
00:06:57: Speaker 3: Ein bisschen teuer.
00:07:00: Speaker 2: Ja, hätte ich halt
00:07:01: Speaker 2: den Move gemacht und wäre von Open R
00:07:03: Speaker 2: an die GEMA herangetreten und hätte vielleicht
00:07:04: Speaker 2: ein GEMA AI gebaut mit Open R zusammen.
00:07:08: Speaker 2: Wer weiß, was noch so kommt.
00:07:09: Speaker 3: Wir hatten ja auch
00:07:12: Speaker 3: um beim Thema Musik und
00:07:13: Speaker 3: KI zu bleiben,
00:07:15: Speaker 3: keine Liste, aber es passt jetzt eigentlich ganz gut.
00:07:16: Speaker 3: Auch diese Konstellation von
00:07:19: Speaker 3: Udio und Universal war es, glaube ich.
00:07:21: Speaker 2: Hast du das bekommen?
00:07:22: Speaker 2: Ja, mit dem, dass sie sich geeinigt haben.
00:07:24: Speaker 2: Und dann ging ja die Meldung rum, dass sozusagen nur so und so viele Tage noch übrig,
00:07:29: Speaker 2: also dass die Download-Funktion nicht mehr geht und dass die ganzen Creator sozusagen ihre Musik jetzt noch schnell runterladen sollten.
00:07:35: Speaker 2: Und auf Discord hat sich das sozusagen die Unmut breit gemacht.
00:07:39: Speaker 2: Ja, war natürlich eine spannende Meldung.
00:07:42: Speaker 3: Ich bin gespannt, wie das, also auf der einen Seite, also der Hintergrund dazu,
00:07:47: Speaker 3: die ganzen Major-Labels haben ja Udi und Suno, die KI-Musik-Tools, verklagt.
00:07:52: Speaker 3: Und da ist jetzt in einer Instanz oder durch gewisse Gespräche hat sich Udio mit Universal zusammengetan und wollen jetzt da eine partnerschaftliche Plattform aufbauen, um die Songs von Universal irgendwie KI generiert zu nutzen.
00:08:08: Speaker 3: Da bin ich halt gespannt, wie dann so eine Zusammenarbeit aussieht und ob das für Udio so eher der Todesstoß ist oder der noch krassere Push für alle, weil plötzlich mit echten Menschen KI-Musik quasi adaptiert würde.
00:08:21: Speaker 3: Du kannst vielleicht von deinen Lieblingskünstlern und Künstlerinnen was
00:08:23: Speaker 3: remixen und so weiter. Das wäre halt krass.
00:08:26: Speaker 3: Und ich bin
00:08:27: Speaker 3: mir ziemlich sicher, dass Zuno halt dieselben
00:08:29: Speaker 3: Probleme hat und dieselben Klagen an
00:08:31: Speaker 3: der Backe, weil die ja wahrscheinlich
00:08:33: Speaker 3: mit den ähnlichen Sachen trainiert haben.
00:08:35: Speaker 3: Und bin gespannt, wie sich da Zuno entwickelt.
00:08:37: Speaker 3: Also ich bin ein riesengroßer Fan von Zuno und auch
00:08:39: Speaker 3: dem aktuellen Fünfermodell.
00:08:41: Speaker 3: Das ist so krass gut.
00:08:44: Speaker 3: Und hört er sich
00:08:45: Speaker 3: ab und zu...
00:08:45: Speaker 2: Du bist ja derjenige, wollte ich gerade sagen,
00:08:47: Speaker 2: du bist ja derjenige, der halt
00:08:49: Speaker 2: AI-Musik auch pumpt, jeden Tag.
00:08:51: Speaker 2: Ist so geil.
00:08:52: Speaker 3: Zum Frühstück irgendein Thema ist da immer ein Song dazu.
00:08:56: Speaker 3: Super lustig.
00:08:57: Speaker 3: Und teilweise auch krass,
00:08:58: Speaker 3: was für Kombinationen
00:09:01: Speaker 3: oder was für Aufbau von Songs
00:09:03: Speaker 3: teilweise bei so wirklich random Themen
00:09:05: Speaker 3: gefunden wird.
00:09:07: Speaker 3: Ziemlich, ziemlich krass.
00:09:09: Speaker 3: Wir haben noch ein bisschen mehr mitgebracht.
00:09:10: Speaker 3: Womit wir weiter machen?
00:09:12: Speaker 2: Wir haben, vielleicht stelle ich dir mal die Frage,
00:09:15: Speaker 2: was ist denn gerade bei Amazon
00:09:17: Speaker 2: gegen Perplexity los?
00:09:18: Speaker 2: Was geht denn da bei Amazon und Perplexity?
00:09:21: Speaker 2: Hol mal die Leute ab.
00:09:22: Speaker 3: Ich hole mal die Leute ab, genau. Amazon hat
00:09:25: Speaker 3: Klage gegen Perplexity, genauer gesagt gegen den
00:09:26: Speaker 3: Comet-Browser eingereicht, da dieser
00:09:29: Speaker 3: natürlich in Lage ist, durch die
00:09:31: Speaker 3: Argentic-Features auch
00:09:33: Speaker 3: shoppen zu gehen. Zum Beispiel
00:09:35: Speaker 3: bei Amazon auch einen Checkout-Prozess durchzuführen,
00:09:37: Speaker 3: da ja der Browser
00:09:39: Speaker 3: auch das Interface soweit versteht und benutzen
00:09:41: Speaker 3: kann. Und das
00:09:43: Speaker 3: findet Amazon nicht so geil, kann
00:09:45: Speaker 3: ich auch in gewissem Maße verstehen, weil
00:09:47: Speaker 3: natürlich die Shops über
00:09:49: Speaker 3: die letzten Jahre immer darauf aufgebaut haben,
00:09:51: Speaker 3: Cross-Sell, Up-Sell, irgendwie hier nochmal
00:09:54: Speaker 3: noch eine Empfehlung, willst du noch die Versicherung dazu kaufen?
00:09:57: Speaker 3: Und der Agent macht das halt nicht. Und wenn du dann sagst, kauf mir mal irgendwie
00:10:01: Speaker 3: einen Sack Reis bei Amazon, mach das mal im Hintergrund.
00:10:05: Speaker 3: Und da hast du halt nicht den Reiskocher als Up-Sell,
00:10:08: Speaker 3: sondern halt nix. Und ich glaube,
00:10:11: Speaker 3: da bin ich gespannt, wie andere Shops
00:10:13: Speaker 3: auch größere reagieren. Wir haben ja dann auf der anderen Seite
00:10:15: Speaker 3: so E-Commerce-Buden wie Walmart, die ja dann
00:10:19: Speaker 3: eher sagen, hey, wir integrieren uns in ChatGBT
00:10:22: Speaker 3: in Instant Checkout.
00:10:23: Speaker 3: Das heißt, da gehen die die andere Richtung.
00:10:24: Speaker 3: Die sind ja auch kein Leichtgewicht.
00:10:28: Speaker 3: Also von daher bin ich gespannt,
00:10:30: Speaker 3: wie die großen E-Commerce-Player da noch reagieren,
00:10:32: Speaker 3: wenn es Richtung Agentic Shopping geht.
00:10:34: Speaker 3: Und Amazon ist halt einfach ein bisschen krasser
00:10:37: Speaker 3: an den Start gegangen.
00:10:39: Speaker 3: Mal gucken, wer die Schotten quasi dicht macht
00:10:42: Speaker 3: und wer sich solcher Agentic Shopping-Sachen
00:10:44: Speaker 3: da noch öffnet.
00:10:45: Speaker 3: Ich glaube, es wird ziemlich stark.
00:10:47: Speaker 3: Also ich habe es mal getestet in ChatGBT.
00:10:50: Speaker 3: shoppen mit Jet
00:10:51: Speaker 3: ist ziemlich flawless, also ziemlich flüssiger
00:10:53: Speaker 3: Experience, finde ich geil.
00:10:55: Speaker 2: Ja, das weißt du, hast du ja schon recht früh
00:10:57: Speaker 2: diesen Case auch gemacht, dass du, glaube ich, doch
00:10:59: Speaker 2: ein Agent hast,
00:11:02: Speaker 2: irgendeine Volt-Bestellung
00:11:03: Speaker 2: machen lassen. Stimmt, das haben wir in einer Live-Session gemacht,
00:11:05: Speaker 3: als der JetGBT-Agent rauskam, hat mir
00:11:07: Speaker 3: während der Live-Session quasi Essen bestellen
00:11:09: Speaker 3: lassen und es kam sogar an und es war unglaublich
00:11:11: Speaker 3: lecker, weil ich bei dem Shop noch nie bestellt habe
00:11:13: Speaker 3: und es war ein richtig,
00:11:15: Speaker 3: ich weiß auch nicht mehr, wie der Laden heißt, ich finde es nicht mehr,
00:11:18: Speaker 3: richtig, richtig gut.
00:11:20: Speaker 3: Und das hat der Agent dann bestellt. Aber es war damals noch
00:11:22: Speaker 3: sehr viel langsamer, muss man sagen.
00:11:24: Speaker 2: Ja, das stimmt.
00:11:25: Speaker 2: Dann gibt es ein neues Thema, was wir dabei haben
00:11:28: Speaker 2: bezüglich Open Source.
00:11:31: Speaker 2: Alle Open Source
00:11:32: Speaker 2: Fans da draußen und auch Lokalfans.
00:11:35: Speaker 2: Kimi
00:11:36: Speaker 2: K2.
00:11:38: Speaker 2: Was ist denn Kimi?
00:11:40: Speaker 2: Kimi hört sich an wie ein
00:11:42: Speaker 2: Gericht auf der Speisekarte.
00:11:44: Speaker 2: Entweder ein Gericht oder ein Anime.
00:11:47: Speaker 3: Was ist es denn in Wirklichkeit?
00:11:49: Speaker 3: Und warum hat es in den Podcasts geschafft?
00:11:53: Speaker 2: Weil so Benchmark-Themen,
00:11:54: Speaker 2: du bist doch unser Benchmark-Experte,
00:11:56: Speaker 2: spielst doch mal den Ball zurück.
00:11:58: Speaker 2: Warum ist es so Open-Source-mäßig
00:12:02: Speaker 2: von den Billion-Parametern so krass,
00:12:05: Speaker 2: aber nur Benchmark hast du dazu geschrieben?
00:12:07: Speaker 2: Genau, ich habe einfach mal die Notes gewartet,
00:12:09: Speaker 3: weil wir sind ja auch immer in der Folge,
00:12:10: Speaker 3: auch immer die Awareness,
00:12:11: Speaker 3: dass wir natürlich nicht sagen,
00:12:12: Speaker 3: hier ist ein Benchmark, der ist geiler
00:12:13: Speaker 3: und deswegen ist alles jetzt irgendwie viel, viel besser.
00:12:15: Speaker 3: Was ich hier viel, viel spannender finde, Kimi ist ein Unternehmen, ich glaube Moonshot AI aus China und Kimi ist das Modell und die haben jetzt Kimi K2 Thinking rausgebracht und das ist erstmal ein Gentic-Modell, was sehr, sehr viele auch Tool-Calls, also was dann die Nutzung von anderen Tools quasi für KI-Modelle ermöglicht, an den Tag legt und in diversen Benchmarks, hier natürlich immer mit, wie gesagt, beim Englischen mit a grain of salt, mit einer Prise Salz, gibt es in Deutschland auch.
00:12:45: Speaker 3: eigentlich führen? Mit Vorsicht einfach.
00:12:48: Speaker 3: Mit Vorsicht zu genießen.
00:12:49: Speaker 3: Genau. Hat nichts mit Salz zu tun
00:12:51: Speaker 3: im Deutschen.
00:12:54: Speaker 3: Aber das Spannende
00:12:55: Speaker 3: ist, die sind bei verschiedenen
00:12:58: Speaker 3: Benchmarks,
00:12:59: Speaker 3: gerade wenn es auch Richtung Agentic Search geht,
00:13:01: Speaker 3: Agentic Reasoning und Coding,
00:13:03: Speaker 3: sehr, sehr nah an den
00:13:05: Speaker 3: führenden Modellen von
00:13:07: Speaker 3: OpenAI und Anthropic dran.
00:13:09: Speaker 3: Also Sonnet beispielsweise, Sonnet
00:13:11: Speaker 3: 5 Thinking, das GBD 5 High
00:13:13: Speaker 3: Modell, sehr, sehr nah
00:13:15: Speaker 3: aber gleichzeitig Open Source
00:13:17: Speaker 3: beziehungsweise Open Ways besser gesagt
00:13:20: Speaker 3: und sind aber halt nicht so laut.
00:13:21: Speaker 3: Ich finde, das ging so ein bisschen unter,
00:13:24: Speaker 3: weil das war halt irgendwie,
00:13:25: Speaker 3: ja, wir haben das jetzt auch irgendwie released,
00:13:27: Speaker 3: es ist aber nicht so ein Knall,
00:13:28: Speaker 3: wie jetzt irgendwie die US-Models raushauen.
00:13:32: Speaker 3: Und das heißt auch da wieder,
00:13:33: Speaker 3: mein Take ist ja immer,
00:13:34: Speaker 3: China ist schon krass gut dabei
00:13:36: Speaker 3: und ich finde diese Open Ways-Strategie,
00:13:40: Speaker 3: muss man fast schon sagen,
00:13:41: Speaker 3: bei vielen chinesischen Labs sehr, sehr faszinierend.
00:13:44: Speaker 3: Und ja, mal gucken, inwiefern das auch wirklich nutzbar ist.
00:13:47: Speaker 3: Ich habe es mal so ein bisschen angetestet.
00:13:50: Speaker 3: Für Deutsch muss ich sagen, ist okay.
00:13:53: Speaker 3: Habe ich schon bessere Sachen auch Open Source gesehen.
00:13:56: Speaker 3: Allerdings den Argentic-Part habe ich so noch nicht durchgebenchmarked
00:13:59: Speaker 3: oder durchgetestet.
00:14:00: Speaker 3: Aber ja, nicht nur in die USA gucken,
00:14:03: Speaker 3: auch in die andere Richtung.
00:14:04: Speaker 3: Ich glaube, das lohnt sich.
00:14:04: Speaker 2: Ja, wir hatten ja hier, um USA zu zitieren,
00:14:07: Speaker 2: ich glaube, Nvidia, der Nvidia-CEO hat ja gesagt,
00:14:09: Speaker 2: dass es seiner Meinung nach das AI-Race die Chinesen machen werden.
00:14:14: Speaker 2: Und deswegen ist das halt einfach auch,
00:14:17: Speaker 2: natürlich, das passt natürlich auch ein bisschen so zur Welt
00:14:18: Speaker 2: und zur Kultur. Die Amis
00:14:20: Speaker 2: leben vom Marketing und von der Show
00:14:22: Speaker 2: und die Chinesen
00:14:25: Speaker 2: leben da von der Effizienz
00:14:27: Speaker 2: und dementsprechend
00:14:29: Speaker 2: sind noch die Releases bei denen
00:14:30: Speaker 2: deutlich leiser.
00:14:32: Speaker 3: Die releasen was und dann müssen sie weitermachen.
00:14:35: Speaker 3: Finde ich gut.
00:14:35: Speaker 2: Genau.
00:14:37: Speaker 2: Das war ja bei Seed Dream
00:14:39: Speaker 2: auch so,
00:14:41: Speaker 2: wo dann Nano-Banana rauskam
00:14:43: Speaker 2: und dann kommen die Chinesen zwei Wochen später und machen 4K.
00:14:47: Speaker 2: Dementsprechend Gerüchte, Küche.
00:14:48: Speaker 2: Aber du bist ja unser LinkedIn-Fame-Mensch hier.
00:14:51: Speaker 2: Und jeder, der uns zuhört, unsere Zuhörerinnen und Zuhörer,
00:14:54: Speaker 2: unsere kleine Community, die brav immer einschaltet,
00:14:57: Speaker 2: ihr folgt ja sicherlich alle dem Jens auf LinkedIn.
00:15:00: Speaker 2: Dem Max auch nicht.
00:15:01: Speaker 2: Und deswegen, ja, passt schon, aber dem Jens erstmal.
00:15:04: Speaker 2: Und das Wichtige ist ja, dass der Jens euch immer Sachen beibringt.
00:15:07: Speaker 2: Er teilt ja immer sein Wissen sehr gerne.
00:15:09: Speaker 2: Und deswegen ist der Jens eigentlich auch in so einem richtigen,
00:15:12: Speaker 2: dem Creator-Programm von Google.
00:15:15: Speaker 2: Und da gibt es ein paar Gerüchte.
00:15:17: Speaker 2: Und ich habe auch schon ein paar Gerüchte.
00:15:18: Speaker 2: Ich habe witzigerweise auf Social Media gesehen,
00:15:20: Speaker 2: Instagram, Nano-Banana 2,
00:15:23: Speaker 2: Bilder von Jeffrey Epstein und P. Diddy beim Golfspielen.
00:15:29: Speaker 2: Wirklich unfassbar echt aussehende Bilder,
00:15:33: Speaker 2: wo ich schon sage, okay, jetzt müssen wir langsam weiter
00:15:37: Speaker 2: über die Kennzeichnung, über die KI-Kontrolle,
00:15:40: Speaker 2: was ist echt und was es nicht ist,
00:15:42: Speaker 2: weil die Leute werden ja leider immer dummer da draußen auf den sozialen Medien und überall generell.
00:15:47: Speaker 2: Siehe das Thema AI-Models, also weibliche AI-Models.
00:15:53: Speaker 2: Unfassbar, was da für Typen drunter unter den Kommentaren stehen.
00:15:55: Speaker 2: Und du kennst ja unseren Case, den ich ja schon vor zwei Jahren hatte.
00:15:59: Speaker 2: Da war die AI noch nicht so weit und da hat es schon funktioniert.
00:16:02: Speaker 2: Dementsprechend, was kommt, um jetzt den Bogen zu spannen, wieder, was kommt, was gibt es denn da für Gerüchte?
00:16:07: Speaker 2: Die Gerüchteküche brodelt.
00:16:10: Speaker 3: Genau, ich darf ja, das habe ich auch schon mal bei LinkedIn gepostet, bin ja in einem Gemini-Kreis mit drin, wo ich schon mal Zugang zu ein paar Sachen ein bisschen früher bekomme. Aber abgesehen davon, das heißt, ich blaue dir nichts aus, wo ich vielleicht schon was sehen kann.
00:16:27: Speaker 3: Aber was wir auf X vor allen Dingen und auf LinkedIn schon sehen, es gibt sehr, sehr, sehr, sehr deutliche Anzeichen, dass von Google, aber auch von OpenAI etwas kommt und zwar wahrscheinlich ziemlich zeitnah.
00:16:39: Speaker 3: Denn wir haben in diversen Screenshots von Google Cloud-Konsolen etc. schon Hinweise auf Gemini 3-Modelle, das heißt ein neues Modell von Google, was meine Hoffnung endlich wieder 2 Millionen Token Context hat, vielleicht auch verlässlich, weil Google hat ja mal ein 2 Millionen Token Context Fenster-Modell gehabt, das haben die irgendwann aber rausgezogen aus dem AI-Store oder aus dem AI-Lab.
00:17:03: Speaker 3: Und ich hoffe, dass da das Modell vielleicht sogar noch ein bisschen stärker wird,
00:17:07: Speaker 3: weil ich finde das Kontextfenster von Google ziemlich verlässlich.
00:17:11: Speaker 3: Arbeite ich sehr gerne mit dem Gemini-Modell, mit dem 2.5er.
00:17:14: Speaker 3: Und was du gerade schon angeteasert hast, Nano Banana 2.
00:17:18: Speaker 3: Ich bin aber, ich finde, man hat zwar ein paar Leaks oder vermeintliche Leaks gesehen,
00:17:26: Speaker 3: aber ich fand es halt da schwierig wirklich zu sagen, ist das jetzt Nano Banana 2?
00:17:29: Speaker 3: Was steckt da wirklich hinter?
00:17:30: Speaker 3: Das war bei einem Anbieter, ich weiß nicht, irgendein Tool-Anbieter hat es wohl mal irgendwie aus Versehen drin,
00:17:35: Speaker 3: vielleicht auch Absicht, I don't know.
00:17:37: Speaker 3: Und da weiß ich noch nicht, von Google hat man, und das war bei NanoBanana1 ja der Fall,
00:17:43: Speaker 3: schon erste Anzeichen gesehen, irgendwelche Bananen-Emojis in irgendwelchen Tweets und so weiter drin.
00:17:48: Speaker 3: Das habe ich bisher noch nicht so gesehen, aber ich könnte mir vorstellen, dass das auch so kommt.
00:17:54: Speaker 3: Und da bin ich gespannt, wie gut das Modell dann noch wirklich wird.
00:17:57: Speaker 3: Und letzter Punkt in der Gerüchteküche, nicht nur Google gibt fleißig Gas, sondern auch OpenAI.
00:18:03: Speaker 3: Auch hier gab es in diversen Dateien, die auf dem OpenAI-Server auch liegen, auch Hinweise zu GPT 5.1 Thinking.
00:18:14: Speaker 3: Also ein vermeintlich kleines Update von 5.0 oder 5.0, wie du sagen würdest.
00:18:21: Speaker 3: O zu 5.1 Thinking.
00:18:25: Speaker 3: Und da, ich bin bei den Versionssprüngen
00:18:27: Speaker 3: immer so ein bisschen
00:18:29: Speaker 3: so gespannt, was da so kommt.
00:18:31: Speaker 3: Weil wir haben zum Beispiel bei Gemini ja irgendwie einen großen
00:18:33: Speaker 3: Sprung auf die Dreier von 2.5,
00:18:35: Speaker 3: also eine vermeintlich große
00:18:37: Speaker 3: Erweiterung des Modells.
00:18:39: Speaker 3: Bei GPT wäre es 0,1.
00:18:42: Speaker 3: Also entweder will man
00:18:43: Speaker 3: so ein bisschen auf die Kacke hauen und sagen,
00:18:44: Speaker 3: wir machen jetzt hier 0,1 kleine Versionsupdate,
00:18:47: Speaker 3: aber halt viel, viel geiler.
00:18:49: Speaker 3: Oder es hat wirklich nur eine kleine Veränderung,
00:18:50: Speaker 3: dass man sagt, vielleicht ein bisschen mehr
00:18:53: Speaker 3: Performance, besseres Toolcalling,
00:18:55: Speaker 3: größtes Kontextfenster vielleicht auch.
00:18:57: Speaker 3: Ich weiß es nicht, aber ich denke, das werden wir im November
00:18:59: Speaker 3: noch sehen. Und
00:19:01: Speaker 3: um da die Brücke zu spannen zu dem vorherigen
00:19:03: Speaker 3: Thema, ich kann mir auch sehr,
00:19:05: Speaker 3: sehr hart vorstellen und es gibt so ein paar Modelle
00:19:07: Speaker 3: in entsprechenden
00:19:09: Speaker 3: Arenas, die noch im
00:19:11: Speaker 3: Stealth-Mode sind, dass wir auch aus China
00:19:13: Speaker 3: irgendwas sehen, was
00:19:15: Speaker 3: zwei Wochen später kommt und
00:19:17: Speaker 3: Open Source ist und irgendwie besser und günstiger
00:19:19: Speaker 3: oder im Bildbereich irgendwie nochmal 4K-Drag
00:19:21: Speaker 3: mitdeckt, ich weiß es nicht, aber ich kann es mir sehr,
00:19:23: Speaker 3: sehr gut vorstellen, dass da auch in China
00:19:25: Speaker 3: nochmal direkt ein Modell hinterherfliegt.
00:19:28: Speaker 2: Unbedingt, also die werden
00:19:29: Speaker 2: definitiv was schon in der Pipeline haben.
00:19:31: Speaker 2: Es ist eigentlich meiner Meinung nach
00:19:33: Speaker 2: auch nur eine Marketingstrategie, die die Chinesen
00:19:35: Speaker 2: fahren. Lasst mal die Amis
00:19:37: Speaker 2: teuer das raushauen und dann hauen wir es raus.
00:19:40: Speaker 2: Und
00:19:41: Speaker 2: ja, also ich bin echt gespannt,
00:19:43: Speaker 2: was kommt und wir
00:19:45: Speaker 2: wissen es ja selber, wie es ist. Jetzt seit
00:19:48: Speaker 2: nunmehr einigen Jahren
00:19:49: Speaker 2: beschäftigen wir uns mit dem Thema
00:19:51: Speaker 2: und wir sind sehr ungeduldig geworden.
00:19:54: Speaker 2: sehr verwöhnt geworden.
00:19:55: Speaker 2: Wenn ich mir denke, von wo wir anfangen,
00:19:57: Speaker 2: wie wir angefangen haben beim Mid-Journey,
00:20:00: Speaker 2: noch keine Referenzbilder,
00:20:01: Speaker 2: Stable Diffusion.
00:20:03: Speaker 2: Erinnert mich so ein bisschen an die ersten
00:20:05: Speaker 2: Tage von Social, wo Meta-Ads
00:20:07: Speaker 2: live kamen und du
00:20:09: Speaker 2: irgendwie im Werbekonto noch
00:20:11: Speaker 2: AB-Testing händisch machen musstest.
00:20:12: Speaker 2: Jetzt geht alles automatisiert.
00:20:15: Speaker 3: Ich weiß noch,
00:20:17: Speaker 2: als ich 2023,
00:20:19: Speaker 3: das ist nicht lange her,
00:20:21: Speaker 3: auf der OMR-Bühne war und
00:20:22: Speaker 3: ein Film von Runway, ich glaube es war
00:20:24: Speaker 3: Gen 2, gezeigt habe. Und für
00:20:26: Speaker 3: alle das so mindblowing war. Und das
00:20:28: Speaker 3: war einfach absoluter...
00:20:30: Speaker 3: So schlecht.
00:20:32: Speaker 3: Ich habe irgendwelche Superhelden gezeigt, die Kaffee getrunken
00:20:35: Speaker 3: haben. Die Kaffeetasse war irgendwie rechts neben dem Arm
00:20:36: Speaker 3: in der Luft am Schweben. Alle haben irgendwie komische Gesichter
00:20:38: Speaker 3: gemacht. Und das ist halt einfach nicht
00:20:41: Speaker 3: lange her. Und wenn du dir jetzt die führenden
00:20:42: Speaker 3: Videomodelle anguckst,
00:20:44: Speaker 3: krass. Also wir sind glaube ich sehr, sehr
00:20:47: Speaker 3: stark verwöhnt, was einfach das angeht.
00:20:49: Speaker 3: Und ich hätte mir nicht denken können,
00:20:50: Speaker 3: wo wir jetzt stehen vor drei Jahren oder so.
00:20:52: Speaker 3: oder vier.
00:20:54: Speaker 2: Ja, und ich glaube, das wird halt auch das Thema werden,
00:20:57: Speaker 2: wo man ja auch sieht,
00:20:58: Speaker 2: dass jetzt auch immer mehr,
00:21:00: Speaker 2: also durch die Verbesserung
00:21:02: Speaker 2: der Tools ist natürlich
00:21:04: Speaker 2: auch die Einfachheit, Bilder zu generieren,
00:21:06: Speaker 2: wo man sich früher einen abgefriemelt hat,
00:21:09: Speaker 2: schon irgendwie was anderes
00:21:11: Speaker 2: geworden und dementsprechend
00:21:12: Speaker 3: eine sehr schöne
00:21:14: Speaker 3: Überleitung. Mit Bildern hat man sich
00:21:16: Speaker 3: ja immer abgefriemelt
00:21:18: Speaker 3: und sehr klein, teile
00:21:20: Speaker 3: Bilder generiert, hochgeladen, runtergeladen,
00:21:22: Speaker 3: voll doof. Max, gibt es da nichts Besseres?
00:21:24: Speaker 3: Kann man nicht verkürzen, was raus.
00:21:26: Speaker 2: Ja, danke. Küsse eure Augen.
00:21:28: Speaker 2: Freepick, wenn ihr hört, schickt mir gerne Free Credits.
00:21:31: Speaker 2: Du hast ja schon Free Credits.
00:21:33: Speaker 2: Freepick, ich liebe euch.
00:21:34: Speaker 2: Meine ganzen Agenturen
00:21:36: Speaker 2: sind alle auf Freepick oder Comfy umgestiegen
00:21:38: Speaker 2: und wir haben hier das Thema
00:21:40: Speaker 2: Canvas bzw. Spaces.
00:21:42: Speaker 2: Was ist es denn? Warum ist es geil?
00:21:45: Speaker 2: Spaces ist
00:21:47: Speaker 2: geil, weil ich nenne es
00:21:48: Speaker 2: jetzt mal ganz einfach erklärt.
00:21:50: Speaker 2: Es ist wie ein Reißbrett-Format.
00:21:53: Speaker 2: bei dem man sozusagen in der Übersicht praktisch mehrere Iterationen eines Arbeitsworkflows mit unterschiedlichen Modellen sehr einfach durchdeklinieren kann.
00:22:03: Speaker 2: Das heißt, nehmen wir mal ein Beispiel mit den Angles, was wir gerade gelernt haben vom lieben Jens.
00:22:09: Speaker 2: Da habe ich heute gerade wieder auch was gelernt.
00:22:12: Speaker 2: Es ist ja das Model QAN, lass mich kurz spicken, Camera Angle Control rausgekommen.
00:22:20: Speaker 2: Für all die, die die KI nutzen, wissen ja, Hugging Face ist so eine Webseite, wo man so Models testen kann. Und in diesem Spaces-Workflow, jetzt bei FreePick ist es so, nehmen wir mal ein Beispiel da, wir haben ein frontales Bild, was ihr uploadet in diesen Spaces als euer Startbild.
00:22:37: Speaker 2: Und dann könnt ihr sozusagen mit diesem Spaces-Ansatz dieses Bild jetzt sehr schnell in drei, vier, fünf, sechs, sieben Angles mit zum Beispiel diesem QAN-Model durchspielen oder aber ihr nutzt zum Beispiel vorgefertigte Templates von Spaces, die teilweise, da denke ich mal, wird auch dann mehr von Templates rauskommen.
00:23:00: Speaker 2: Es werden dann immer mehr werden wahrscheinlich.
00:23:02: Speaker 2: Vielleicht wird es dann auch die Möglichkeit geben, dass Creator selber ihre Spaces hochladen.
00:23:07: Speaker 2: Also Workflows praktisch zeigen, ein E-Commerce-Workflow oder ein Produkt-Workflow.
00:23:12: Speaker 2: Und es ist wirklich, wirklich verrückt, weil man da deutlich schneller Creative-Visualisierungen bekommt als vorher.
00:23:21: Speaker 2: Aber jetzt kommt gleich Disclaimer, Spoiler, Achtung.
00:23:24: Speaker 2: Ihr müsst eure Credits im Blick haben.
00:23:28: Speaker 2: Liebe Grüße an Freepick, Optimierung, baut doch mal hier irgendwo bitte so einen Zähler hin, damit wir nicht alle unsere ganzen Credits verschießen. Also das ist echt sehr interessant. Für diejenigen, die zum Beispiel andere AI-Tools und nicht Freepick, gibt es ja ganz viele Anbieter da draußen, wir machen ja nicht nur Werbung für einen, natürlich nicht, wir sind ja nicht so lobbymäßig unterwegs.
00:23:48: Speaker 2: Zum Beispiel Crea AI hatte das schon früher drin, diese sogenannten, ich nenne es jetzt mal Reißbrett-Workflow und jeder, der sich dem aneignen möchte, kann sich da auch super coole YouTube-Videos anschauen, wo Creator genau sowas zeigen, wie man so Workflows baut in Freepig, Crea, wie sie auch alle heißen.
00:24:09: Speaker 2: Aber jetzt bei unserem Fall hat Flippig eben dieses Abteil gefahren.
00:24:12: Speaker 3: Aber man muss ja sagen, dass tatsächlich WayVAI,
00:24:17: Speaker 3: ich glaube, das sind die, die damit auch gestartet sind mit diesem Flippig-Infair-Vlog.
00:24:22: Speaker 3: Die waren es echt gut.
00:24:22: Speaker 3: Die sind auch von Flippig gekauft worden, von der Smarter Move.
00:24:26: Speaker 3: Aber ich glaube, das finde ich halt auch spannend.
00:24:28: Speaker 3: Du bist jetzt nochmal eine ganz andere Kreativ-Ecke,
00:24:31: Speaker 3: aber einfach Workflows zu bauen,
00:24:32: Speaker 3: wo du beliebige Bild- und Videomodelle kombinieren kannst
00:24:36: Speaker 3: und dann auch wirklich mit dem Output von etwas weiterarbeiten kannst,
00:24:39: Speaker 3: das finde ich halt echt geil.
00:24:41: Speaker 3: Anstatt halt so hochladen, runterladen, wieder woanders rein.
00:24:45: Speaker 3: Das hat Freepix schon recht smart gemacht, auch übergreifend zu arbeiten,
00:24:49: Speaker 3: aber halt noch nicht so dynamisch.
00:24:50: Speaker 3: Und das finde ich schön, dass viele Kreativ-Tools
00:24:54: Speaker 3: halt in diese Canvas-Reißbrett-Logik halt rübergehen.
00:24:58: Speaker 3: Ich glaube, das macht das Arbeiten nochmal ein bisschen spannender
00:25:01: Speaker 3: und schöner und visueller.
00:25:04: Speaker 3: Voll.
00:25:05: Speaker 3: Bleiben wir mal im Kreativbereich.
00:25:07: Speaker 3: Ich habe noch etwas mitgebracht von Adobe.
00:25:11: Speaker 3: Ihr habt so ein bisschen drunter geschrieben, ähnlich wie Google.
00:25:15: Speaker 3: Erinnerst du dich noch?
00:25:16: Speaker 3: Wir haben noch damals auch über Google immer ganz gerne abgelästert mit Google Bart.
00:25:20: Speaker 3: War nicht geil.
00:25:21: Speaker 3: Und auch Adobe hat ja, finde ich, am Anfang jetzt mit den Firefly-Modellen
00:25:26: Speaker 3: eine okay Leistung gehabt.
00:25:28: Speaker 3: Aber ich finde jetzt gerade, was man auf der Adobe Max gesehen hat,
00:25:31: Speaker 3: die hauen echt ordentlich Sachen raus,
00:25:33: Speaker 3: die natürlich direkt integriert sind in Premiere, in Photoshop und Adobe Express und so weiter.
00:25:40: Speaker 3: Und ich finde es spannend, wie man hier auch Unternehmen so ein bisschen unterschätzt.
00:25:45: Speaker 3: Vielleicht kommt Apple auch irgendwann mal.
00:25:48: Speaker 3: Aber ich finde, Adobe gibt hier ordentlich Gas, was die KI-Features angeht.
00:25:52: Speaker 3: Und ich persönlich finde zum Beispiel das Layer-Editing von KI-Bildern total geil,
00:25:56: Speaker 3: dass du plötzlich ein Bild in einzelne Elemente zerlegen kannst und damit halt irgendwie Drag-and-Drop machen kannst.
00:26:01: Speaker 3: als eigentlich gelernter
00:26:03: Speaker 3: Mediendesigner ist das krass, wenn ich überlege,
00:26:05: Speaker 3: wie ich damals Photoshop gelernt habe mit
00:26:07: Speaker 3: magnetischen Lasso und
00:26:09: Speaker 3: dem ganzen Kram.
00:26:11: Speaker 3: Von daher auch da cool,
00:26:13: Speaker 3: dass da halt das noch näher kommt.
00:26:15: Speaker 3: Und ich bin, ich glaube,
00:26:17: Speaker 3: das war ein sehr guter Move von Adobe, sich doch zu öffnen,
00:26:19: Speaker 3: den anderen Modellen gegenüber,
00:26:20: Speaker 3: wie im Flux oder
00:26:23: Speaker 3: im Runway oder auch anderen Modellen
00:26:25: Speaker 3: das halt zu integrieren.
00:26:28: Speaker 3: Schon
00:26:29: Speaker 3: nice.
00:26:31: Speaker 2: Ja, und vor allem haben wir ja sehr lange gewartet.
00:26:36: Speaker 2: Und jetzt hoffen wir, dass Adobe mal weiter in die Pötte kommt.
00:26:38: Speaker 2: Weil natürlich, ich meine, wir hatten ja den Case bei Adobe,
00:26:41: Speaker 2: du hast es gerade gesagt, geöffnet für Modelle.
00:26:43: Speaker 2: Es ist ja sozusagen, glaube ich, auch mit dem Nano-Banana-Plugin
00:26:47: Speaker 2: damals von einem freien Künstler oder Creator gewesen.
00:26:50: Speaker 2: Ich glaube sogar ein Holländer, ich weiß es,
00:26:52: Speaker 2: weil ich habe das Plugin runtergeladen,
00:26:54: Speaker 2: der dann sozusagen dieses Plugin für Adobe gebaut hat,
00:26:56: Speaker 2: um einen Nano-Banana in Adobe zu integrieren.
00:26:59: Speaker 2: was sie ja dann auch schnell übernommen haben, Adobe.
00:27:01: Speaker 2: Das heißt, da glaube ich, ist jetzt auch klar,
00:27:04: Speaker 2: dass 5 nach 12 war und jetzt sie ein bisschen nachgezogen sind.
00:27:09: Speaker 2: Weil natürlich sozusagen für jemand, der wie ich ja gar kein Adobe kann,
00:27:13: Speaker 2: weil dafür habe ich ja tolle Kolleginnen und Kollegen,
00:27:15: Speaker 2: die das wirklich professionell richtig gut können,
00:27:18: Speaker 2: denke ich mir, was brauche ich jetzt Adobe, wenn ich FreePick habe?
00:27:22: Speaker 2: Also FreePick, das war jetzt der letzte Disclaimer von FreePick.
00:27:25: Speaker 2: Nee, aber da wird sicherlich noch mehr kommen.
00:27:27: Speaker 2: Und ich glaube, vielleicht haben sie auch so ein bisschen den Move gemacht.
00:27:31: Speaker 2: Lassen wir mal da alle draußen machen.
00:27:33: Speaker 2: Viel Geld investieren, viel Geld ausgeben, viel ausprobieren.
00:27:36: Speaker 2: Und dann schauen wir, dass wir die besten Sachen uns abschreiben
00:27:39: Speaker 2: und bei uns integrieren.
00:27:41: Speaker 2: Aber wir haben ja natürlich noch eine andere große Meldung dabei,
00:27:43: Speaker 2: die schon ein bisschen einen Raunen in der Meta-Welt raus.
00:27:50: Speaker 2: In der Meta-Welt, Meta-AI.
00:27:51: Speaker 2: Genau. Relativ aktuell.
00:27:55: Speaker 3: Guckt mal gerade von wann die Nachricht ist vom 11. November, also von Mittwoch, Dienstag.
00:28:04: Speaker 3: Jan LeCun, der ist ja quasi die Instanz bei Meta, wenn es um das ganze Thema AI geht,
00:28:11: Speaker 3: auch die führende Person, wenn es um die ganzen Lama-Modellen ging.
00:28:14: Speaker 3: Und ist ja auch, finde ich, eine spannende Person in dieser ganzen AI-Bubble,
00:28:19: Speaker 3: weil er natürlich auch eine gewisse Kritik gegenüber die Leistungsfähigkeit
00:28:23: Speaker 3: und skalierbarer Fähigkeit von Transformer-Modellen
00:28:25: Speaker 3: immer mal wieder in den Raum geschmissen hat
00:28:27: Speaker 3: und sich da auch vielleicht so ein bisschen gegen den Hype
00:28:29: Speaker 3: positioniert hat, was ich erstmal auch
00:28:31: Speaker 3: eine sehr interessante Sichtweise finde und
00:28:33: Speaker 3: ist mir sicher ein smarter Typ.
00:28:35: Speaker 3: Der wird aber wahrscheinlich
00:28:37: Speaker 3: Meta-AI oder Meta im weitesten Sinne
00:28:39: Speaker 3: verlassen und
00:28:41: Speaker 3: ein eigenes Startup gründen. Da bin ich gespannt,
00:28:43: Speaker 3: ob das ein Move
00:28:45: Speaker 3: wird in Richtung, wir machen irgendwie
00:28:47: Speaker 3: ehrlichere AI, so ein bisschen dieser
00:28:49: Speaker 3: Anthropic-Move, die ja auch aus dem
00:28:51: Speaker 3: Open-AI-Kosmos raus sind und dann
00:28:53: Speaker 3: mit Claude, was
00:28:55: Speaker 3: eher verlässlicheres, ethischeres, ehrlicheres
00:28:57: Speaker 3: gründen wollten oder gründet haben,
00:29:00: Speaker 3: was da so kommt,
00:29:01: Speaker 3: aber er wird da Meta auch verlassen
00:29:03: Speaker 3: und das natürlich für
00:29:05: Speaker 3: Meta im AI-Bereich, also ich
00:29:07: Speaker 3: weiß natürlich nicht, die haben jetzt natürlich auch noch einiges eingekauft,
00:29:09: Speaker 3: einige Menschen
00:29:11: Speaker 3: und Companies dazugekauft, aber
00:29:13: Speaker 3: inwiefern das so Meta rausfedert,
00:29:15: Speaker 3: wenn da so eine wichtige Person
00:29:17: Speaker 3: da rausfliegt,
00:29:19: Speaker 3: aber ja, mal schauen. Ja, das ist ähnlich
00:29:20: Speaker 2: wie der Fußballtransfermarkt oder generell
00:29:22: Speaker 2: der sportliche Transfermarkt geworden.
00:29:25: Speaker 2: Eine irre
00:29:27: Speaker 2: Summenspiel für, sage ich mal,
00:29:29: Speaker 2: Menschen, die
00:29:30: Speaker 2: natürlich krass sind, die dann einfach krasse Gehälter.
00:29:33: Speaker 2: Witzigerweise hat OpenAI ja auch
00:29:34: Speaker 2: eine KI-Topkraft bei Intel abgeworben.
00:29:37: Speaker 2: Da wird alle hin und her geschoben.
00:29:39: Speaker 2: Da wird er nun ja.
00:29:40: Speaker 2: Passend zu dem Meme, was ich vor
00:29:42: Speaker 2: zwei Tagen gesehen habe, sehr, sehr
00:29:44: Speaker 2: passend bei dem gesehen habe,
00:29:47: Speaker 2: so nach dem Motto, du hängst
00:29:48: Speaker 2: daheim ab und denkst darüber nach und siehst
00:29:50: Speaker 2: wie die KI-Firmen Fake-Geld hin- und herschieben.
00:29:55: Speaker 2: Und da war dieses Image von diesen ganzen Oracles und Firmen dieser Welt,
00:30:00: Speaker 2: die sozusagen sich ihre Billionen hin- und herschieben.
00:30:04: Speaker 2: Also droht die KI-Blase zu platzen.
00:30:06: Speaker 2: Das ist ja das große Thema, was ja auch in der Wall Street war,
00:30:09: Speaker 2: vor einer Woche gelesen.
00:30:11: Speaker 2: Mal schauen.
00:30:12: Speaker 2: Also ich finde es immer interessant, bei Meta ist es so,
00:30:16: Speaker 2: ich bin jetzt in erster Linie sehr enttäuscht von Meta bezüglich dem AI-Thema.
00:30:20: Speaker 2: Und dahingehend, dass ich wirklich sehr lange...
00:30:23: Speaker 3: Du hast ja mitgegangen integriert. Ist doch nett.
00:30:26: Speaker 2: Ja, also vielleicht tue ich kurz aus, wenn ich einen kurzen Rant abgeben darf.
00:30:31: Speaker 2: Ich bin ja, wir machen ja mit Social, klar, wir haben alle Plattformen im Portfolio und ich will jetzt auch nicht renten, weil natürlich das auch eine gewisse Art und Weise für meine Selbstständigkeit war.
00:30:39: Speaker 2: Aber zum Thema Philosophie, wo geht die Plattform hin oder was ist Meta überhaupt?
00:30:44: Speaker 2: Und ich habe Zuckerberg sehr lange in Schutz genommen,
00:30:46: Speaker 2: als schon die ersten Leute sich über ihm seine
00:30:48: Speaker 2: Glasses und Brillen witzig gemacht haben.
00:30:49: Speaker 2: Und du erinnerst dich
00:30:52: Speaker 2: auch die Oculus und Co.
00:30:53: Speaker 2: Ich habe sie ja auch.
00:30:55: Speaker 2: Und ich habe irgendwie das Gefühl,
00:30:58: Speaker 2: dass Meta oder Zuckerberg
00:31:00: Speaker 2: einfach, dem einfach die Kompetenz
00:31:02: Speaker 2: fehlt. Also er ist nicht dieser,
00:31:04: Speaker 2: er ist nicht dieses Superbrain,
00:31:06: Speaker 2: wie traurigerweise Elon Musk,
00:31:08: Speaker 2: auch wenn er ein Freak ist,
00:31:10: Speaker 2: und wie andere, sondern
00:31:12: Speaker 2: der braucht,
00:31:13: Speaker 2: Er ist in meiner Meinung nach in vieler Hinsicht mehr Schein als Sein.
00:31:17: Speaker 2: Und du siehst es auch an den Entscheidungen, die er jetzt unternehmerisch getroffen hat.
00:31:21: Speaker 2: Jetzt kannst du tippen, ja, okay, in zehn Jahren tragen alle Gläser,
00:31:24: Speaker 2: diese Oakley-Glässe und Rayburn-Glässe.
00:31:27: Speaker 2: Aber generell bei Meta ist es so,
00:31:30: Speaker 2: er wollte die Agentur und die Mediagentur abschaffen,
00:31:33: Speaker 2: alles wird automatisiert.
00:31:35: Speaker 2: Gleichzeitig ist der Support für Werbentreibende,
00:31:37: Speaker 2: also auch für kleine Unternehmer, miserabel.
00:31:39: Speaker 2: Also jemand, bevor ich 1.000 Euro als kleiner Bäckerlein,
00:31:43: Speaker 2: beim Meta reinwerfe, buche ich immer noch die Flyer-Werbung um die Ecke, weil da habe ich eine direkte Ansprechpartnerin.
00:31:49: Speaker 2: Die KI-Lösungen, die sie da implementiert hat, Meta, ist alles ein Rot, jetzt mal ganz ehrlich, auch bei Insta und so.
00:31:54: Speaker 2: Diese ganzen scheiß Avatare, die die da integriert haben, interessiert auch niemanden.
00:31:58: Speaker 2: Die Plattformen werden immer qualitativ schlechter.
00:32:01: Speaker 2: Zehn Prozent hast du ja gelesen, gab ja die Reuters-Studie und vor zwei, drei Tagen oder vor fünf Tagen,
00:32:07: Speaker 2: wo rauskam, dass Meta angeblich zehn Prozent von ihrem ganzen Gewinn durch Scam macht.
00:32:13: Speaker 2: wo dann Meta berichtigt hat, ja, nee, doch nicht, es war nicht so genau.
00:32:17: Speaker 2: So, die Plattform ist qualitativ am Abrotzen, also Kommentarspalten, Hasskommentare.
00:32:23: Speaker 2: Ja, aber so, und dann denke ich mir jetzt so, klar, dass irgendein französischer Forscher,
00:32:28: Speaker 2: der wirklich ein AI-Pionier ist, dann wahrscheinlich auch irgendwie diesen Wang vor die Nase gesetzt bekommen hat,
00:32:34: Speaker 2: den dann der Zuckerberg für einen Haufen Geld eingekauft hat.
00:32:37: Speaker 2: Klar, und das zeigt für mich so ein bisschen das Thema, du kannst dir halt nicht immer,
00:32:41: Speaker 2: du kannst halt kein Top-Clubs immer sein in so einem Sportthema,
00:32:44: Speaker 2: wenn du nur alle irgendwie kaufst.
00:32:46: Speaker 2: Und wenn du aber irgendwie gar nicht die Vision hast,
00:32:48: Speaker 2: wo wollen die denn hin?
00:32:49: Speaker 2: Also die können froh sein, dass sie strategisch so viel Geld hatten
00:32:52: Speaker 2: und so groß waren, dass sie halt alles nur zugekauft haben.
00:32:54: Speaker 2: Weil Innovation von Facebook ist seit Jahren nicht mehr da.
00:32:58: Speaker 2: Also die haben Instagram gekauft,
00:33:00: Speaker 2: die haben die Funktion von TikTok kopiert.
00:33:02: Speaker 2: Also weißt du, was ich meine?
00:33:02: Speaker 2: Ich bin jetzt auch Nutzer und ich finde das auch,
00:33:05: Speaker 2: die werden jetzt nicht aussterben wie das Fernsehen.
00:33:08: Speaker 2: Aber, also zumindest noch nicht, aber es wird dauern.
00:33:10: Speaker 2: Aber du weißt, was ich meine?
00:33:11: Speaker 2: Und dann integrieren sie mit Journey
00:33:14: Speaker 2: und dann wird es noch eine AI-Slop.
00:33:15: Speaker 2: Dann ist eigentlich nur AI-Drecks-Content.
00:33:18: Speaker 3: Dann gibt es noch Vibes.
00:33:21: Speaker 2: Ja, Vibes,
00:33:22: Speaker 2: dann Threads, Threads steigt.
00:33:23: Speaker 2: Ich glaube ja gar keine Zahlen mehr. Also alles, was da steht,
00:33:25: Speaker 2: wir wachsen, wachsen, alle wachsen immer.
00:33:27: Speaker 2: Jeder wächst immer.
00:33:29: Speaker 2: Wer zur Hölle nutzt das Threads?
00:33:31: Speaker 2: Jetzt mal ganz ehrlich,
00:33:32: Speaker 2: alle gehen von X weg.
00:33:34: Speaker 2: Wegen Elon Musk, wir müssen X boykottieren.
00:33:36: Speaker 2: Du hängst sogar auch noch auf X ab,
00:33:38: Speaker 2: weil du dich dabei Free-Pick beschwerst
00:33:41: Speaker 2: bei irgendwelchen Tools, warum die funktionieren.
00:33:43: Speaker 2: Also du weißt, was ich meine.
00:33:45: Speaker 2: Ich glaube,
00:33:47: Speaker 2: wenn Zuckerberg sich nicht umschaut,
00:33:49: Speaker 2: Alter, nicht, dass das jetzt zugrunde
00:33:51: Speaker 2: gehen würde, so wie Blackberry oder wie
00:33:53: Speaker 2: irgendwelche großen Firmen, die es verschlafen haben.
00:33:56: Speaker 2: Aber ob sich das
00:33:57: Speaker 2: rechnet, wie viel Geld die da
00:33:59: Speaker 2: ausgeben und verbrennen.
00:34:01: Speaker 2: Gerade bis teilen und so weiter.
00:34:03: Speaker 2: Ja, und überleg mal, wenn die Qualität der Plattform
00:34:05: Speaker 2: schlechter wird, ist mal uns als Werber.
00:34:06: Speaker 2: Also es wird ja Alternativen geben. Es wird auch bei
00:34:08: Speaker 2: JGPT meiner Meinung nach irgendwann mal ein Bidding
00:34:11: Speaker 2: geben, hundertprozentig,
00:34:13: Speaker 2: wird das kommen müssen.
00:34:15: Speaker 2: Ja, aber dann gehen die Werber dahin, wo die Leute sind.
00:34:17: Speaker 2: Und wenn die Qualität der Plattform mal schlechter wird,
00:34:19: Speaker 2: weil halt nur noch Bots oder Hass oder
00:34:21: Speaker 2: Wutbürger oder was weiß ich was,
00:34:23: Speaker 2: Aluhutträger in den Kommentarspalten,
00:34:25: Speaker 2: Leute die ganze Zeit diffamieren,
00:34:27: Speaker 2: also es ist ja frustrierend. Also wenn du jetzt,
00:34:29: Speaker 2: mach mal, geh mal auf Insta, geh mal unter die
00:34:31: Speaker 2: Tagesschau, geh mal unter die Öffentlich-Rechtlichen, was
00:34:33: Speaker 2: da abgeht. Das ist so krass.
00:34:35: Speaker 3: Ich nutze
00:34:36: Speaker 3: keine Meta-Plattform aktiv, weil ich genau
00:34:39: Speaker 3: diesen Punkt halt auch total
00:34:41: Speaker 3: habe, weil ich brauche das nicht, diesen negativen
00:34:43: Speaker 3: Einfluss. Ja, aber da denke ich mir,
00:34:45: Speaker 2: dann gib doch lieber Geld aus, anstatt dass du
00:34:47: Speaker 2: irgendwelche Brillen baust, gib doch lieber Geld
00:34:49: Speaker 2: auf, dass deine Plattform eine geile
00:34:51: Speaker 2: Plattform ist, wo die Qualität
00:34:53: Speaker 2: der User und der Inhalte gut
00:34:55: Speaker 2: ist, damit du lieber noch mehr Werber
00:34:58: Speaker 2: reinkriegst und baue
00:34:59: Speaker 2: lieber so ein Werbemechanismus. Von mir ist, kannst du auch
00:35:01: Speaker 2: die KI-Plattform bauen, die dann irgendwie die
00:35:03: Speaker 2: kleinen Mittelständler reinzieht,
00:35:05: Speaker 2: aber stelle ich doch nicht hin und
00:35:07: Speaker 2: labere so ein Bullshit und sage, ja, wir machen
00:35:09: Speaker 2: das jetzt so und wir schaffen die
00:35:11: Speaker 2: Agenturen ab oder die Mediadingen.
00:35:13: Speaker 2: Alter, du kannst ja noch nicht mal einen Nazi
00:35:15: Speaker 2: oder einen Rassisten,
00:35:17: Speaker 2: der jemanden beleidigt
00:35:19: Speaker 2: im öffentlichen Raum,
00:35:21: Speaker 2: kannst du noch nicht mal melden.
00:35:22: Speaker 2: Weil jedes Mal, wenn ich irgendjemand gemeldet habe, kam dann
00:35:25: Speaker 2: so, hallo, hallo Nauti,
00:35:27: Speaker 2: ja schön, ja nö,
00:35:29: Speaker 2: für uns hat der nicht gegen die allgemeinen
00:35:31: Speaker 2: Regeln verstoßen. Wo ich mir denke, what the fuck?
00:35:33: Speaker 2: Alter, du wirst Innovationstreiber sein
00:35:36: Speaker 2: und kriegst
00:35:37: Speaker 2: nicht mal hin, irgendwie deine eigene Plattform
00:35:39: Speaker 2: mit AI zu bereinigen. Also, weißt du,
00:35:41: Speaker 2: du könntest ja auch Agents, Controller einbauen.
00:35:43: Speaker 2: Also, das sind so Sachen, wo ich mir denke,
00:35:45: Speaker 2: wow, kein Wunder, dass dann so innovative
00:35:47: Speaker 2: Leute dann irgendwann mal auch gehen.
00:35:49: Speaker 2: Aber er wird schon wissen, dass Sack, was er
00:35:51: Speaker 2: macht. Also, Geld hat er ja genug.
00:35:53: Speaker 3: Ich bin auch gespannt, wie nächstes Jahr da bei Meta
00:35:55: Speaker 3: aussieht und wie auch die Lama-Modelle sich entwickeln.
00:35:57: Speaker 2: Aber lass uns mal ein bisschen weiterziehen.
00:35:59: Speaker 2: Sorry.
00:36:01: Speaker 2: Ja, das war ein langer Rant, aber der musste jetzt
00:36:03: Speaker 2: sein, weil mich das einfach nervt. Entschuldigung.
00:36:04: Speaker 3: Dafür ist es ja auch deine ehrliche Meinung.
00:36:06: Speaker 3: Und das ist ja auch wichtig im Podcast.
00:36:09: Speaker 3: mal kundzutun.
00:36:11: Speaker 3: Lass uns noch mal ein bisschen weitergucken.
00:36:13: Speaker 3: Was haben wir denn noch hier so mit dabei?
00:36:18: Speaker 2: Du hattest ein spannendes Thema,
00:36:21: Speaker 2: und zwar, wir hatten das Thema Energie und Strom.
00:36:23: Speaker 2: Da haben wir ja auch schon viel drüber geredet im Podcast,
00:36:25: Speaker 2: seit wir das machen.
00:36:27: Speaker 2: Da hattest du eine spannende Meldung mit dabei.
00:36:29: Speaker 3: Schwieriges Thema, finde ich, auch generell.
00:36:31: Speaker 3: Also natürlich sprechen wir über Videomodelle,
00:36:34: Speaker 3: Bildmodelle und Textmodelle
00:36:35: Speaker 3: und die brauchen natürlich super viel Ressourcen.
00:36:37: Speaker 3: Es gibt Projekte wie Stargate, 500 Milliarden, wo Rechenzentren,
00:36:42: Speaker 3: sondern eher Rechenstädte aufgebaut werden, um da irgendwie zu skalieren ohne Ende.
00:36:48: Speaker 3: Und gleichzeitig wächst aber auch in Ländern wie zum Beispiel Chile oder Brasilien
00:36:51: Speaker 3: oder besonders in Lateinamerika und Umgebung der Widerstand auch in der Öffentlichkeit
00:36:57: Speaker 3: gegen die Datenzentren, weil es wohl auch viele geheime Absprachen gab,
00:37:01: Speaker 3: zwischen Regierung und Tech-Unternehmen, Mangel der Transparenz da auch einfach gab
00:37:05: Speaker 3: und vielleicht in den Ländern auch der Ressourcenmangel
00:37:08: Speaker 3: noch viel, viel stärker auf das Leben der einzelnen Personen Einfluss hat.
00:37:13: Speaker 3: Und da bin ich gespannt,
00:37:15: Speaker 3: ob es da auch in Europa noch mehr lauter Stimmen gibt.
00:37:18: Speaker 3: Ich finde es selber persönlich für mich super schwierig,
00:37:20: Speaker 3: bewusst mit KI im Bereich Ressourcenverbrauch umzugehen,
00:37:25: Speaker 3: auch weil es einfach schwierig ist zu messen.
00:37:27: Speaker 3: Wir googeln auch jeden Tag,
00:37:28: Speaker 3: googeln verbraucht auch Energie.
00:37:30: Speaker 3: KI-Video ist natürlich ein Vielfaches im Vergleich zu einer Google-Suche.
00:37:33: Speaker 3: Trotzdem machen wir es und spielen wir damit rum.
00:37:36: Speaker 3: finde ich persönlich super schwierig, aber ich glaube, dass
00:37:38: Speaker 3: das auch ein Thema wird, was
00:37:39: Speaker 3: in Zukunft noch weitere Relevanz bekommt und dann ist
00:37:42: Speaker 3: halt die Frage, löst KI
00:37:44: Speaker 3: irgendwann das Ressourcenproblem,
00:37:46: Speaker 3: weil KI so smart ist
00:37:48: Speaker 3: und irgendeine Lösung findet oder
00:37:50: Speaker 3: ist das eher was, wo das bis zum
00:37:52: Speaker 3: Unendlichkeit skaliert und einfach uns die
00:37:53: Speaker 3: kompletten Ressourcen klaut?
00:37:55: Speaker 2: Ja, ich glaube, dass das eben auch
00:37:57: Speaker 2: das Thema wird, wie weit KI sozusagen
00:37:59: Speaker 2: auch nicht platzen wird oder nicht, weil
00:38:01: Speaker 2: die Wachstumsstrategie, nehmen wir mal OpenAI,
00:38:04: Speaker 2: wie viel Atomkraftwerke bräuchten, die könnten die gar nicht bauen.
00:38:06: Speaker 2: Deswegen glaube ich, dass eher das Thema,
00:38:08: Speaker 2: und wir haben jetzt, du hast es gerade hier in der Meldung,
00:38:10: Speaker 2: Chile, Brasilien, Datencenter,
00:38:12: Speaker 2: da gibt es ja auch, sage ich mal, auch Menschen in den USA,
00:38:16: Speaker 2: die dagegen sind, der eine Datencenter in den USA,
00:38:19: Speaker 2: die ja, habe ich auch eine spannende Art,
00:38:20: Speaker 2: der Dokum, muss ich dann auch mal in den Shownotes verlinken zum Thema.
00:38:24: Speaker 2: Was ich meine ist, das ist ja eher interessant,
00:38:26: Speaker 2: was ist eigentlich mit dem arabischen Raum?
00:38:28: Speaker 2: Also was ist mit den ganzen Solar-Themen?
00:38:30: Speaker 2: Was ist da mit dem Thema?
00:38:32: Speaker 2: Also da würde ich sagen, ich glaube, die KI gewinnt dann da, wo die Energie erneuerbar ist und wo sozusagen durch Solarfarmen, vor allem im arabischen Raum, in der Wüste, die gar keiner auf dem Zettel hat.
00:38:45: Speaker 2: Und wenn ich jetzt sozusagen dahingehend einer von den großen Entscheider wäre, dann würde ich auf jeden Fall mal mit den Emiraten reden und mit denen, weil die haben nämlich natürlich Fläche und Sonne.
00:38:56: Speaker 2: Und eigentlich könnte das eben eine positive Lösung sein,
00:39:00: Speaker 2: weil die Alternativen sind ja, wie wir es gerade erwähnt haben, Atom.
00:39:04: Speaker 3: Oder, und das ist eine gute Überleitung,
00:39:08: Speaker 3: vielleicht sind es auch Sachen, an die wir gerade aktuell noch nicht denken.
00:39:11: Speaker 3: Denn Google hat im Research-Blog geschrieben,
00:39:15: Speaker 3: ich zitiere mal den Titel,
00:39:17: Speaker 3: Exploring a Space-Based Scalable AI Infrastructure System Design.
00:39:23: Speaker 3: Also vielleicht packen wir die AI-Rechenzentren einfach ins All,
00:39:26: Speaker 3: weil da ist ja kalt.
00:39:27: Speaker 3: Da brauchen wir ja nicht über Kühlung nachzudenken und Wasserverbrauch.
00:39:30: Speaker 3: Und das ist über das Project Suncatcher ein Projekt,
00:39:35: Speaker 3: was gerade wohl in Entwicklung oder in Forschung ist,
00:39:39: Speaker 3: um auch zu schauen, kriegen wir das denn hin,
00:39:41: Speaker 3: dass Satelliten quasi Rechenzentren so ein bisschen ersetzen
00:39:45: Speaker 3: und da halt auch AI-Infrastruktur aufbauen, was halt crazy wäre.
00:39:50: Speaker 3: Aber klar, du hast natürlich andere Probleme da oben mit Weltraumstrahlung etc.,
00:39:53: Speaker 3: mit krasser Kälte umzugehen,
00:39:55: Speaker 3: aber Kühlung ist halt kein Problem da oben.
00:39:58: Speaker 2: Kühlung ist kein Problem
00:39:59: Speaker 2: und du hast halt dann noch so ein Thema
00:40:01: Speaker 2: wie in diesen Sci-Fi-Filmen, wo Weltraum
00:40:03: Speaker 2: schraubt dann.
00:40:04: Speaker 2: Ich stelle mir das dann so vor, dass du dann irgendwie nur noch
00:40:07: Speaker 2: diese Satelliten haben.
00:40:08: Speaker 3: Ich stelle mir halt auch die Frage,
00:40:11: Speaker 3: du sitzt dann unten auf der Erde
00:40:13: Speaker 3: und dann ist oben irgendwas kaputt.
00:40:15: Speaker 3: Dann sind irgendwie 20 GPUs ausgefallen
00:40:17: Speaker 3: oder wahrscheinlich ein bisschen mehr.
00:40:19: Speaker 3: Was machst du denn da?
00:40:20: Speaker 2: Ja, dann musst du halt schnell hochfahren, Jens. Mach halt.
00:40:22: Speaker 3: Ja, mal eben mal kurz hoch.
00:40:23: Speaker 3: okay, ich bin in, keine Ahnung, wie viele Tagen da
00:40:26: Speaker 3: und dann wechsle ich Dinge aus bis dahin
00:40:27: Speaker 3: und dann auf der Rückfahrt oder im Rückflug,
00:40:29: Speaker 3: besser gesagt, gehen wieder welche da kaputt.
00:40:32: Speaker 2: Das ist natürlich krass auskannend.
00:40:33: Speaker 2: Das macht ja der Tesla-Roboter dann.
00:40:35: Speaker 3: Stimmt, stimmt. Ja, wer weiß.
00:40:38: Speaker 3: Das wäre smart.
00:40:39: Speaker 3: Aber wenn der kaputt ist,
00:40:42: Speaker 3: das ist scheiße.
00:40:43: Speaker 2: Einfach so ein Roboter im Google Office
00:40:46: Speaker 3: im All, auf dem Mond.
00:40:47: Speaker 3: Dann hast du den Weg vielleicht kürzer dahin.
00:40:49: Speaker 2: Wir könnten ja, weil du vorhin gerade die Intro
00:40:51: Speaker 2: gemacht hast, weil wir sind auch der Spaßgast und da nicht so
00:40:53: Speaker 2: KI-Podcasts und wir haben ja sozusagen diese
00:40:55: Speaker 2: Ost-West-Gefälle. Wir könnten ja sozusagen
00:40:58: Speaker 2: unsere Genossen im Osten
00:41:00: Speaker 2: fragen, ob sie so ein Space-Shuttle-
00:41:02: Speaker 2: Programm wieder aufmachen, dann können die das
00:41:04: Speaker 3: doch machen. Finde ich gut, dann in Europa
00:41:05: Speaker 3: auch wieder was zu melden.
00:41:11: Speaker 3: Also
00:41:11: Speaker 3: auf jeden Fall spannend.
00:41:12: Speaker 3: Aber was auch spannend
00:41:14: Speaker 3: ist, auch das ist ein Thema von Google,
00:41:16: Speaker 3: was mich auch
00:41:18: Speaker 3: überrascht hat, aber eine sehr interessante
00:41:20: Speaker 3: Perspektive aufgemacht hat.
00:41:21: Speaker 3: Wir reden natürlich über erstmal viel gute KI.
00:41:24: Speaker 3: Aber die Cyberkriminellen sind natürlich auch nicht doof
00:41:27: Speaker 3: und finden natürlich auch KI super, super geil,
00:41:29: Speaker 3: um noch mehr Blödsinn zu machen.
00:41:31: Speaker 3: Abgesehen von Phishing und Co.
00:41:33: Speaker 3: hat Google auch ein System oder ein Chartprojekt im Web gefunden.
00:41:40: Speaker 3: Das nennt sich PromptFlux.
00:41:42: Speaker 3: Und was hier passiert, gerade bei Viren und Toyane,
00:41:46: Speaker 3: ist ja so, der Quellcode von den Toyanern wird ja dann erkannt.
00:41:50: Speaker 3: Die Virensysteme catchen das und dann funktioniert es nicht mehr.
00:41:53: Speaker 3: Da muss man jetzt als Böser was Neues machen.
00:41:55: Speaker 3: Und das haben wir jetzt quasi über Gemini so gebaut,
00:42:00: Speaker 3: dass es ein Shard-Software gibt,
00:42:02: Speaker 3: die alle paar Stunden ihren Quellcode einfach umändert mit KI,
00:42:06: Speaker 3: weil KI jetzt super gut im Coding wird
00:42:08: Speaker 3: und dann immer weniger erkannt wird.
00:42:11: Speaker 3: Fand ich spannend, dass das natürlich auch,
00:42:12: Speaker 3: das verdrängt man vielleicht mal so ein bisschen,
00:42:14: Speaker 3: dass natürlich Cyber-Kriminelle auch sagen,
00:42:16: Speaker 3: boah geil, KI und Innovation und Fake-Bilder und so weiter.
00:42:19: Speaker 3: Und da, glaube ich, auch viel Scheiß mit passiert.
00:42:22: Speaker 3: Und das fand ich einen interessanten Part,
00:42:23: Speaker 3: dass die Schadsoftware mittlerweile autonom wird.
00:42:29: Speaker 2: Ja, und vor allem halt auch,
00:42:30: Speaker 2: dass wahrscheinlich auch eine KI-Kompetenz
00:42:32: Speaker 2: eben bei den ganzen Kriminalpolizei
00:42:35: Speaker 2: oder bei den ganzen Behörden drin muss.
00:42:38: Speaker 2: Und dagegen vor.
00:42:40: Speaker 2: Also da kann ja die Bundeswehr und Polizei,
00:42:42: Speaker 2: Bundespolizei nicht mal nochmal für Coda
00:42:45: Speaker 2: irgendwie ihre Out-of-Home-Kampagne machen,
00:42:47: Speaker 2: sondern mal für KI-Experten und Expertinnen,
00:42:49: Speaker 2: weil das wird sicherlich wichtig werden.
00:42:51: Speaker 3: Ich glaube, das wird da viel im Cyber-Bereich
00:42:54: Speaker 3: schon hoffentlich mitgedacht.
00:42:56: Speaker 3: Aber natürlich, klar, es sind neue Herausforderungen,
00:42:58: Speaker 3: die weit weg davon gehen,
00:42:59: Speaker 3: einfach nur so ein bisschen Quellcode zu analysieren.
00:43:03: Speaker 3: Mal gucken.
00:43:04: Speaker 2: Ich habe noch eine Sache mit,
00:43:07: Speaker 2: bevor wir zu deinem Use-Case kommen,
00:43:10: Speaker 2: der ziemlich geil ist.
00:43:12: Speaker 2: Und zwar habe ich noch was dabei.
00:43:14: Speaker 2: Es ist schon jetzt, wie lange?
00:43:15: Speaker 2: Eineinhalb, zwei Wochen her.
00:43:17: Speaker 2: Ewig.
00:43:18: Speaker 2: Ewig her.
00:43:19: Speaker 2: und wir haben ja unser Thema, du hast ja gerade gesagt, Cyberkriminalität, KI und Innovation,
00:43:24: Speaker 2: aber seien wir mal ehrlich, KI macht auf 45%, 40 bis 45% eh nur Fehler.
00:43:30: Speaker 2: Stimmt.
00:43:31: Speaker 2: Das ist also die Headline, die in den öffentlich-rechtlichen, aber nicht nur in den öffentlich-rechtlichen,
00:43:35: Speaker 2: sondern in allen Medienhäusern, Headline, Clickbaiting-Headlines, da funktioniert SEO immer noch gut,
00:43:42: Speaker 2: durchgegangen ist und zwar, was hat das auf sich?
00:43:44: Speaker 2: Ich glaube, ihr habt das alles mitbekommen da draußen, die uns zuhören.
00:43:47: Speaker 2: Und zwar gab es eine sehr, sehr renommierte, würde ich jetzt sagen, Studie von 64, 66, muss man mal genau die Zahl schauen, Sendern, geleitet unter dem Deckmantel der BBC, bei dem sozusagen die Verlässlichkeit von Quellen und die Antwortraten von KI-Modellen getestet worden sind im journalistischen Aspekt.
00:44:09: Speaker 2: Und ja, die Headlines, die eben die gerade eben zitierten Medienhäuser genannt haben, war irgendwie die KI macht 40% Fehler, wusste nicht, wer der Papst ist und so weiter.
00:44:22: Speaker 2: Es gab natürlich ein großes Raunen auf Social Media. Die Kommentarspalte hier war auch wieder witzig.
00:44:27: Speaker 2: Die KI-Gegner haben sich natürlich alle gefreut. Yeah, wir haben es immer gesagt, es ist alles scheiße und wer die KI nutzt, ist selber schuld und bla bla bla.
00:44:37: Speaker 2: und dann ich natürlich
00:44:40: Speaker 2: hold my beer,
00:44:41: Speaker 2: habe natürlich mir die Studie gezogen, habe sie dir
00:44:43: Speaker 2: witzigerweise auch auf WhatsApp direkt weitergeleitet
00:44:46: Speaker 2: und habe sie mir als erstes
00:44:48: Speaker 2: Mal im Workflow
00:44:49: Speaker 2: bei Notebook LLM mal schön als
00:44:52: Speaker 2: Audio zusammenfassen lassen,
00:44:53: Speaker 2: um sie mir dann nochmal durchzulesen
00:44:55: Speaker 2: und bin bei dem Zusammenfassen des
00:44:57: Speaker 2: Audios, war ich schon so ein bisschen stutzig.
00:45:00: Speaker 2: Ich so, hm.
00:45:02: Speaker 3: Vielleicht hat die Audio-Zusammenfassung
00:45:04: Speaker 3: ja auch 45% falsch gelegen, Max.
00:45:06: Speaker 2: Ja, kann aus.
00:45:07: Speaker 2: sein. Ich war auf jeden Fall
00:45:09: Speaker 2: stutzig bei dem Thema, also bei dem
00:45:11: Speaker 2: Durchlesen dieser Studie sind mir direkt
00:45:13: Speaker 2: Fragen in den Kopf gegangen.
00:45:15: Speaker 2: Erstens,
00:45:18: Speaker 2: welche
00:45:19: Speaker 2: Skillset hatte eigentlich derjenige, der
00:45:21: Speaker 2: diese Maschinen bedient hat?
00:45:23: Speaker 2: Weil, wir wissen ja, und das haben wir alle gelernt,
00:45:25: Speaker 2: Garbage in, Garbage out.
00:45:28: Speaker 2: Bedeutet,
00:45:29: Speaker 2: kommt die Scheiße, kommt Scheiße raus.
00:45:31: Speaker 2: Dann das zweite Thema,
00:45:33: Speaker 2: was mich auch direkt gefragt hat,
00:45:34: Speaker 2: Moment mal, Quellenverlässlichkeit
00:45:36: Speaker 2: Anlässlichkeit und Antwortraten. Hä? Wann waren das? Also wann haben die denn das gemacht? Weil eine Online-Suche, Deep Research bei den Modellen wie Gemini, was dort getestet wurde, JetGPT, ist doch eigentlich da.
00:45:50: Speaker 2: Und so war es so ein bisschen das Thema, dass ich dann am Ende, die Studie hat natürlich zu seinem Daseinsbericht um Gottes Willen und suggeriert natürlich auch, zeigt auch wie öffentlich-rechtliche oder Medienhäuser auch Angst haben meiner Meinung nach von KI, weil natürlich sie sozusagen die Hüter des heiligen Grals der journalistischen Richtigkeit inne hatten.
00:46:16: Speaker 2: war es auch so, dass es eher gezeigt hat,
00:46:17: Speaker 2: wie schlecht die eigentlich alle prompten können
00:46:19: Speaker 2: und wie schlecht die alle mit KU umgehen.
00:46:21: Speaker 2: Das war dann am Ende meine Quintessenz.
00:46:23: Speaker 2: Weil ich war da schon echt,
00:46:25: Speaker 2: und wenn das die BBC bringt und 60 Länder zusammen
00:46:28: Speaker 2: oder Sender anstalten,
00:46:30: Speaker 2: ja, da eine gute Nacht.
00:46:31: Speaker 2: Also ich war ja wirklich so,
00:46:33: Speaker 2: ich habe dann direkt bei W&V,
00:46:36: Speaker 2: wo ich immer den Newsletter schreiben darf,
00:46:38: Speaker 2: hobbymäßig,
00:46:39: Speaker 2: habe ich direkt einen Artikel darüber geschrieben.
00:46:40: Speaker 2: Und ich habe mir gedacht,
00:46:41: Speaker 2: hey, das kann doch nicht wahr sein.
00:46:43: Speaker 2: Und dann habe ich tatsächlich Zuspruch bekommen,
00:46:45: Speaker 2: auch von vielen KI-Nerds, die auch gesagt haben,
00:46:47: Speaker 2: bei der Durchlesung der Studie war ihnen auch so ein bisschen schummrig,
00:46:51: Speaker 2: weil es irgendwie nicht klar war, was waren die Proben,
00:46:53: Speaker 2: was war die Voraussetzung, welche Funktionen waren eingeschaltet und so weiter.
00:46:57: Speaker 2: Wir wissen ja alle, dass die wichtigste Fähigkeit,
00:47:01: Speaker 2: ich glaube, das hast du auch immer gesagt, ist,
00:47:03: Speaker 2: das Mitdenken und kritisch hinterfragen, egal was wir im Leben machen.
00:47:08: Speaker 2: Und dann zu sagen, ja, die KI macht Fehler, ihr müsst denken,
00:47:12: Speaker 2: ja gut, also danke, dafür brauche ich jetzt keine Studie.
00:47:15: Speaker 2: Also es war schon sehr amüsant, aber du hast sie auch gelesen und hast sie auch analysiert.
00:47:19: Speaker 3: Ja, ich fand vor allen Dingen, was ich ein bisschen kritisch fand, dass gesagt wurde, wenn keine Quelle da ist, dann ist das automatisch ein fehlerhaftes Ergebnis und das halt auch einer der Fehlerfaktoren waren.
00:47:35: Speaker 3: Aber natürlich, je nachdem, was man für ein Modell benutzt hat, was für ein Wissensstand das hat, natürlich auch manchmal gar keine Quelle notwendig ist.
00:47:43: Speaker 3: Aber trotzdem natürlich dann, wenn eine Quelle wegfällt,
00:47:45: Speaker 3: dass es ein Fehler war.
00:47:46: Speaker 3: Das fand ich halt so ein bisschen, weiß nicht,
00:47:49: Speaker 3: nicht so ganz deutlich.
00:47:49: Speaker 3: Und wie du halt sagtest, verschiedene Tools
00:47:51: Speaker 3: haben verschiedene Stärken.
00:47:53: Speaker 3: Was für ein Prompting, was für ein Tool-Usage war überhaupt da drin?
00:47:57: Speaker 3: Auf was für ein Modell?
00:47:58: Speaker 3: Wenn du ein GPT-5-Thinking nutzt,
00:48:01: Speaker 3: hast du nochmal eine andere Durchsicht,
00:48:03: Speaker 3: auch was die Quellennutzung angeht,
00:48:04: Speaker 3: was überhaupt die Tool-Usage angeht,
00:48:06: Speaker 3: was am Ende die Websuche ist.
00:48:08: Speaker 3: Und das fand ich so ein bisschen halt sehr plakativ,
00:48:11: Speaker 3: sehr gut für den Journalismus,
00:48:13: Speaker 3: glaube ich, so eine Meldung.
00:48:15: Speaker 3: Allerdings halt, finde ich,
00:48:17: Speaker 3: fehlt mir da so irgendwie, auch
00:48:18: Speaker 3: obwohl es ein langes PDF war,
00:48:21: Speaker 3: fehlt mir da so die wichtigen Details.
00:48:23: Speaker 3: Aber klar, wie du schon sagtest, ist es halt noch
00:48:25: Speaker 3: so ein bisschen so, hey, wir erzählen jetzt die Wahrheit.
00:48:27: Speaker 3: Und ich glaube, was wir niemals vergessen dürfen
00:48:29: Speaker 3: ist, klar erzählt die KI
00:48:31: Speaker 3: nicht immer die Wahrheit, ganz normal.
00:48:33: Speaker 3: Aber wie viele Webseiten in dieser Welt gibt es,
00:48:35: Speaker 3: die auch nicht die Wahrheit erzählen
00:48:37: Speaker 3: und wo auch Fehler passieren? Ich habe letztes Mal
00:48:38: Speaker 3: einen Artikel in einem sehr, sehr großen Magazin gesehen,
00:48:41: Speaker 3: die auch eigentlich dafür bekannt sind für gute
00:48:42: Speaker 3: Quellen und richtigen Journalismus
00:48:45: Speaker 3: und da sind halt auch
00:48:47: Speaker 3: menschliche Fehler passiert, dass zum Beispiel
00:48:48: Speaker 3: eine Zahl, eigentlich war die
00:48:50: Speaker 3: Hitler mit 39% zu dem Thema
00:48:52: Speaker 3: und in einem anderen
00:48:54: Speaker 3: Part des Artikels stand 30%.
00:48:56: Speaker 3: Das ist einfach menschlich dann auch einfach.
00:48:59: Speaker 3: Das heißt, wir haben auch einfach super viele Sachen, die einfach
00:49:01: Speaker 3: Fehler haben, die aber von Menschen
00:49:02: Speaker 3: kommen und das dürfen wir nicht vergessen.
00:49:04: Speaker 3: Wir dürfen ja nicht sagen, alles ist perfekt.
00:49:07: Speaker 2: Ja, das ist ein wichtiger Punkt.
00:49:09: Speaker 2: Ja, ist auf jeden Fall so und ich
00:49:10: Speaker 2: Aber das ist natürlich die richtige Idee dahinter, dass man kritisch Dinge hinterfrägt und dass man, egal was man für Tools nutzt oder Technologie nutzt, dass man da immer noch, das macht uns ja Menschen aus, die Intelligenz des Menschen, dass man dann Dinge vielleicht auch hinterfrägt und nochmal beleuchtet und nochmal die Quellen verifiziert.
00:49:30: Speaker 2: Aber halt, dass dann halt sozusagen auch diejenigen, die eigentlich für Journalismus stehen, sich den einfachen Narrativ annehmen und dann einfach sagen, ja, per se falsch und Ding.
00:49:41: Speaker 2: Und das finde ich halt dann richtig schlecht und spielt wieder diesen ganzen Aluhutträgern in die Karten, die sagen, Lüge und Presse.
00:49:47: Speaker 2: Wo ich dann auch dachte so, nein. Oh Mann, echt. Aber egal, wir haben davon was gelernt. Wir verlinken auch die Studie, kann sich jeder auch an durchlesen, eine eigene Meinung bilden.
00:49:58: Speaker 2: Wir sind ja der Podcast, der alle viele Meinungen zulässt.
00:50:01: Speaker 2: Und jetzt kommen wir zum Use Case.
00:50:03: Speaker 2: Weil sonst haben wir schon wieder lange auf der Uhr gehabt hier und viele Sachen besprochen.
00:50:07: Speaker 2: Du hast einen spannenden Use Case dabei.
00:50:10: Speaker 2: Use Case der Woche.
00:50:13: Speaker 3: Ich habe meiner Meinung nach auf jeden Fall einen spannenden Use Case dabei.
00:50:18: Speaker 3: Und zwar haben wir, glaube ich, die letzten Monate immer mal wieder gehört,
00:50:22: Speaker 3: wir haben KI-Mitarbeiter bei uns.
00:50:24: Speaker 3: Und dann gab es ganz viele Content Pieces und Webinare und dies und jenes.
00:50:28: Speaker 3: dann guckt man sich an und da ist ja auch schon
00:50:30: Speaker 3: hier und da mal die Erfahrung gemacht, am Ende war es ein Custom
00:50:32: Speaker 3: GPT und dann aber ein riesengroßes
00:50:34: Speaker 3: Storyline drumherum aufgebaut, KI-Mitarbeiter
00:50:36: Speaker 3: bla bla bla und es ging mir auch so ein bisschen
00:50:38: Speaker 3: um den Sack, nachdem wir uns ja auch ein bisschen
00:50:40: Speaker 3: ausgetauscht und rumgerantet haben
00:50:43: Speaker 3: und
00:50:44: Speaker 3: ich dachte, wie kann ich das denn noch ein bisschen weiterführen
00:50:46: Speaker 3: und ich habe tatsächlich mit Cursor
00:50:48: Speaker 3: mein
00:50:50: Speaker 3: Lieblings-KI-Coding-Tool
00:50:52: Speaker 3: mittlerweile, einfach mal
00:50:54: Speaker 3: gucken, kann ich mir denn Slack-Agents
00:50:56: Speaker 3: oder Slack-Mitarbeiter bauen
00:50:58: Speaker 3: und habe das tatsächlich hinbekommen.
00:51:00: Speaker 3: Und was jetzt ist, ich habe in Slack fünf aktuell Mitarbeiter,
00:51:05: Speaker 3: die verschiedene Meinungen haben.
00:51:07: Speaker 3: Der eine ist der Brand Guideline-Tybi,
00:51:08: Speaker 3: der andere ist unsere Zielgruppe bei Snipki,
00:51:11: Speaker 3: der andere kann Bilder generieren.
00:51:14: Speaker 3: Aber, und das ist das Geile,
00:51:15: Speaker 3: man kann sie halt in Slack ansprechen wie echte Menschen
00:51:19: Speaker 3: und sie antworten halt mit dem Kontext.
00:51:21: Speaker 3: Und zwar, und das war mir ganz wichtig,
00:51:24: Speaker 3: nicht mit dem Kontext deiner Anfrage nur,
00:51:26: Speaker 3: sondern mit dem kompletten Kontext aus diesem Thread,
00:51:29: Speaker 3: weil du hast aber jetzt diese Thread-Logik.
00:51:31: Speaker 3: Das heißt, man kann wirklich diese Kombination,
00:51:33: Speaker 3: und das fand ich so ein bisschen schon fast magisch,
00:51:36: Speaker 3: du sprichst halt mit vielleicht ein paar Menschen hin und her,
00:51:40: Speaker 3: Ideen, Brainstorming, und dann sagst du,
00:51:43: Speaker 3: bei uns heißt der Brand to be Brandon, also Brand on,
00:51:47: Speaker 3: und habe gesagt, hier, wie findest du das denn?
00:51:50: Speaker 3: Und das aber halt mit dem LLM hinten dran,
00:51:54: Speaker 3: oder mit verschiedenen APIs,
00:51:56: Speaker 3: Und das war krass und das hat sich für mich wirklich so angefühlt,
00:51:58: Speaker 3: wie krass ich arbeite hier mit anderen,
00:52:03: Speaker 3: mit KI-Systemen wirklich zusammen
00:52:05: Speaker 3: und springe nicht irgendwie in den Custom GPT rein.
00:52:07: Speaker 3: Und das war auf jeden Fall mein Use Case.
00:52:09: Speaker 3: Ich bin jetzt gerade dabei, das noch ein bisschen weiter auszubauen
00:52:11: Speaker 3: und nutze es, dass ich immer häufiger in Slack selber,
00:52:13: Speaker 3: dass ich sage, ich habe hier so ein bisschen Brainstorming gemacht,
00:52:15: Speaker 3: auch untereinander und dann gesagt, guck mal hier,
00:52:18: Speaker 3: schieb den nochmal rein. Sehr, sehr krass.
00:52:22: Speaker 2: Mega. Und mein Use Case war mit dem Spaces Workflow
00:52:26: Speaker 2: für E-Commerce-Kunden über 50 Creatives auf einmal,
00:52:30: Speaker 2: Iterationen zu generieren für Nahrungsergänzungsmittel.
00:52:34: Speaker 2: Und es hat super gut funktioniert und mein Team hat das richtig gut angenommen
00:52:37: Speaker 2: und hat da irgendwie die, sag ich mal, Iterationsgeschwindigkeit,
00:52:41: Speaker 2: was wir dann dem Kunden rübergeworfen haben, irgendwie um 50 Prozent verbessert.
00:52:46: Speaker 2: Und das war schon echt mindblowing.
00:52:48: Speaker 2: Gerade wenn man sozusagen Statics macht, wie gesagt, Vorsicht bitte bei Generierung,
00:52:53: Speaker 2: gerade auch von Bewegtbild, aber mit dem Static-Themen
00:52:56: Speaker 2: war halt ein Seatream, Nano-Banana,
00:52:57: Speaker 2: wir hatten es dann in Abwechslung drin, Unlimited,
00:52:59: Speaker 2: das heißt, wir konnten hacken, was das Zeug hält
00:53:02: Speaker 2: und haben da deutlich schnellere Ergebnisse
00:53:04: Speaker 2: erzielt, ja, das war super gut.
00:53:05: Speaker 3: Geil, cool, Max, mein Lieber,
00:53:07: Speaker 3: da haben wir wieder eine wunderschöne Folge
00:53:10: Speaker 3: rausgehauen, danke dir
00:53:11: Speaker 3: für deine Zeit.
00:53:14: Speaker 3: Dir auch, mein Lieber.
00:53:15: Speaker 3: Wir hören uns bei der nächsten Folge
00:53:17: Speaker 3: und wir hören uns sowieso.
00:53:19: Speaker 3: Also, danke fürs Zuhören, alle.
00:53:21: Speaker 3: Danke fürs Zuhören.
00:53:23: Speaker 3: immer schön bewerten.
00:53:24: Speaker 3: Weiterempfehlen
00:53:25: Speaker 3: und wir freuen uns immer
00:53:26: Speaker 3: über Feedback, Themen,
00:53:27: Speaker 3: Gäste, Wünsche etc.
00:53:29: Speaker 3: Und genau, Max, mein Lieber,
00:53:30: Speaker 3: wir hören uns bei der nächsten Folge.
00:53:32: Speaker 2: Genau, danke euch
00:53:33: Speaker 2: und immer schön kritisch bleiben,
00:53:34: Speaker 2: haben wir gelernt.
00:53:35: Speaker 2: Liebe Grüße und bis bald,
00:53:36: Speaker 2: meine Lieben.
00:53:36: Speaker 2: Bis dann.
00:54:06: Speaker 2: you
Neuer Kommentar