Musik, Malware, Megamodelle: Die spannendsten KI News und Model Leaks

Shownotes

In dieser Folge quatschen wir darüber, wie sich KI und Kreativwelt gerade zurechtruckeln: von GEMA vs. OpenAI und der Frage, wie fair KI mit Musik umgehen muss, über die Udio-/Universal-Deal-Story hin zu Agenten, die für uns shoppen oder Code schreiben. Wir streifen neue Modelle und Gerüchte aus China, Big Tech und Open Source und schauen, was das für Wettbewerb, Energieverbrauch und unseren Alltag mit KI bedeutet. Dazu gibt es ein paar ganz praktische Einblicke in unsere Workflows mit Tools wie Freepik Spaces, Adobe KI Features und Slack-Agents – und warum kritisches Denken wichtiger bleibt als jedes neue Modell-Update.

Links aus der Folge

GEMA Urteil zu ChatGPT und Songtexten https://www.gema.de/de/w/grundsatzurteil-gema-gegen-openai

Udio & Universal Music – Deal zur KI Musikplattform https://www.universalmusic.com/universal-music-group-and-udio-announce-udios-first-strategic-agreements-for-new-licensed-ai-music-creation-platform/

Amazon vs. Perplexity / Comet Browser https://www.reuters.com/business/retail-consumer/perplexity-receives-legal-threat-amazon-over-agentic-ai-shopping-tool-2025-11-04/

Kimi K2 Thinking von Moonshot AI https://huggingface.co/moonshotai/Kimi-K2-Thinking

Freepik Spaces https://www.freepik.com/spaces

Adobe Max 2024 – KI Features https://blog.adobe.com/en/publish/2024/10/14/adobe-max-2024-more-power-creators

Yann LeCun verlässt Meta https://www.reuters.com/technology/meta-chief-ai-scientist-yann-lecun-plans-exit-launch-startup-ft-reports-2025-11-11/

Google Project Suncatcher (KI im All) https://research.google/blog/exploring-a-space-based-scalable-ai-infrastructure-system-design/

PromptFlux Malware https://thehackernews.com/2025/11/google-uncovers-promptflux-malware-that.html

Analyse zur BBC KI Fehlerstudie https://joshbersin.com/2025/10/bbc-finds-that-45-of-ai-queries-produce-erroneous-answers/

Transkript anzeigen

00:00:00: Speaker 1: New Minds AI. Eure wöchentliche Dosis KI mit Jens und Max.

00:00:07: Speaker 1: Seid dabei, wenn wir die Zukunft erkunden.

00:00:14: Speaker 2: Herzlich willkommen zu einer neuen Folge New Minds AI.

00:00:17: Speaker 2: Ich bin der Max und heute sitzt mir sehr gut vorbereitet und wie immer hochmotiviert mein Partner Jens gegenüber.

00:00:23: Speaker 2: Hallo Jens, schön, dass du da bist.

00:00:25: Speaker 3: Moin Max, ja schön mal wieder mit dir zu quatschen.

00:00:28: Speaker 3: Du bist ja diesmal auch hervorragend vorbereitet.

00:00:30: Speaker 3: Deswegen lassen wir uns direkt mal rein starten, oder?

00:00:33: Speaker 2: Genau, wir hatten ja, bevor wir rein starten und heute eine tolle Update-Folge haben,

00:00:37: Speaker 2: die ja sozusagen immer gewünscht ist, haben wir eine Folge aufgenommen letztes Mal.

00:00:42: Speaker 2: Da ging es um das Thema Sichtbarkeit in der KI-Ära mit dem Felix.

00:00:47: Speaker 2: Und die hast du sicherlich sehr gut gehört, Jens.

00:00:51: Speaker 2: Und fandest sicherlich auch, obwohl du sehr kritisch bist, wenn es um Inhalte geht,

00:00:57: Speaker 2: hast du da sicherlich auch ein paar gute Sachen mitgenommen.

00:00:59: Speaker 2: Klar, natürlich.

00:01:01: Speaker 3: Also ich war lustigerweise in der Gondel im Urlaub,

00:01:04: Speaker 3: als ich da gerade so reingehört habe.

00:01:08: Speaker 3: Und dann rät es natürlich weiter.

00:01:10: Speaker 3: Nee, super wichtiges Thema.

00:01:12: Speaker 3: Ich glaube, da kann man viel diskutieren.

00:01:14: Speaker 3: Und ich glaube, es sind viele Sachen,

00:01:16: Speaker 3: wo Marken sich auch einfach umstellen,

00:01:17: Speaker 3: wo sich gerade Sachen verändern.

00:01:19: Speaker 3: Weg von, wir machen einfach nur ein bisschen anders SEO,

00:01:22: Speaker 3: so hin, dass wir vielleicht auch Marketing ein bisschen anders denken

00:01:24: Speaker 3: und vielleicht auch KPIs ein bisschen hinterfragen.

00:01:26: Speaker 3: Deswegen glaube ich, super relevantes Thema.

00:01:28: Speaker 3: Coole Folge mal wieder.

00:01:30: Speaker 3: Aber das weißt du ja selber.

00:01:31: Speaker 3: Hast du davon über Lob bekommen.

00:01:33: Speaker 3: Nein, aber war ein cooles Ding.

00:01:34: Speaker 3: Ich glaube, wichtiges Thema.

00:01:36: Speaker 3: Und da wird sich in den nächsten Jahren noch was entwickeln.

00:01:39: Speaker 3: Ich bin auch gespannt,

00:01:40: Speaker 3: wie sich diese ganze AI-Search-Update-Thematik entwickelt.

00:01:44: Speaker 3: Wie viele Veränderungen wir da noch sehen werden.

00:01:47: Speaker 3: Weil wir nehmen jetzt das, was wir jetzt haben,

00:01:49: Speaker 3: machen über Listicles, denken, Listicles ist geil und läuft.

00:01:52: Speaker 3: Und das wird sich ja weiterentwickeln.

00:01:55: Speaker 3: mal gucken, wo wir in einem Jahr oder sowas stehen,

00:01:57: Speaker 3: was AI-Search angeht.

00:01:59: Speaker 2: Das ist wahrscheinlich dann ein alter Hut und dann lachen wir uns

00:02:01: Speaker 2: wieder ins Fäustchen, dass wir gedacht haben.

00:02:02: Speaker 2: Und dann gibt es wahrscheinlich Brain-Search

00:02:05: Speaker 3: oder Glasses-Search,

00:02:07: Speaker 3: wo wir eine Brille auf dem Kopf haben und dann

00:02:09: Speaker 3: einfach nur die Brille für uns sucht.

00:02:11: Speaker 3: Das stimmt, ja.

00:02:13: Speaker 2: Also, aber das,

00:02:15: Speaker 2: wir haben ja heute einen Haufen

00:02:17: Speaker 2: News dabei und ich glaube,

00:02:19: Speaker 2: fernab von dem, dass wir

00:02:21: Speaker 2: uns immer wieder gerne hören und

00:02:23: Speaker 2: immer wieder updaten und ich glaube auch,

00:02:24: Speaker 2: Unsere Zuhörerinnen und Zuhörer immer so versuchen, die geballten Neuigkeiten der KI-Welt einfach verständlich rüberzubringen.

00:02:32: Speaker 2: Starten wir doch gleich mal rein mit einem Thema, was ja aus Deutschland gestern, vorgestern Welle gemacht hat.

00:02:38: Speaker 2: Aus Bayern.

00:02:39: Speaker 2: Aus Bayern sogar. Ja, positiv aufgefallen. Und zwar geht es um das Thema OpenAI und GEMA.

00:02:46: Speaker 2: Was ist denn da passiert?

00:02:48: Speaker 2: Da gab es ja das Thema, dass die GEMA auch mehr Eifer klagt hat bezüglich Urheberrechtsverletzung, weil die GEMA nämlich gesagt hat, also die KI, die kann erschreckenderweise die ganzen Songtexte von berühmten MusikerInnen sehr, sehr getreu und richtig nachschreiben.

00:03:05: Speaker 2: Ich wollte schon sagen nachsingen. Und das ist doch eine Urheberrechtsverletzung.

00:03:10: Speaker 2: Und es wurde Klage eingereicht und hier in München am Ende des Tages gestern ist das Urteil gefallen

00:03:19: Speaker 2: und die Richterinnen und Richter haben der GEMA Recht gegeben, was natürlich ein Meilenstein in der Rechtsprechung auch ist.

00:03:29: Speaker 2: Und natürlich auch noch wahrscheinlich eine Instanz weitergehen wird, so wie wir OpenAI kennen oder die Amis kennen,

00:03:34: Speaker 2: werden sie natürlich versuchen,

00:03:37: Speaker 2: erst mal das über eine weitere Instanz

00:03:40: Speaker 2: dann nochmal regeln zu lassen,

00:03:41: Speaker 2: ob dem so wirklich ist.

00:03:43: Speaker 2: Aber es war schon sehr, sehr interessant zu sehen.

00:03:48: Speaker 2: Und was ich am coolsten fand,

00:03:50: Speaker 2: ist tatsächlich die Kommentarspalte

00:03:53: Speaker 2: auf Social Media bezüglich der Postings,

00:03:55: Speaker 2: zum Beispiel von der Tagesschau

00:03:56: Speaker 2: oder Öffentlich-Rechtlichen oder Zeitungen.

00:03:59: Speaker 2: Und die Kommentare waren echt geil.

00:04:01: Speaker 2: Ich glaube, die GEMA hat gestern

00:04:04: Speaker 2: sehr viele SympathieträgerInnen dazugewonnen,

00:04:06: Speaker 2: weil die GEMA hat ja nicht nur Fans,

00:04:08: Speaker 2: sondern sehr viele Hater bezüglich GEMA-Gebühren

00:04:10: Speaker 2: und Co. Aber waren

00:04:12: Speaker 2: sowas wie Endgegner. Selbst für die

00:04:14: Speaker 2: KI ist Endgegner GEMA.

00:04:17: Speaker 2: Und

00:04:19: Speaker 2: davor

00:04:20: Speaker 2: hat selbst die

00:04:21: Speaker 2: KI Angst.

00:04:23: Speaker 2: GEMA und

00:04:27: Speaker 2: Helene Fischer

00:04:28: Speaker 2: und Finanzamt.

00:04:30: Speaker 3: Stimmt.

00:04:31: Speaker 3: Kann ich auch voll verstehen.

00:04:33: Speaker 3: Ich hätte nicht damit gerechnet,

00:04:37: Speaker 3: dass die GEMA hier mit einem Sieg rausgeht,

00:04:39: Speaker 3: auch wenn es noch keine finale Entscheidung ist.

00:04:41: Speaker 2: Ich denke, da werden auch noch weitere Instanzen folgen.

00:04:43: Speaker 3: Aber was ich ganz interessant finde,

00:04:46: Speaker 3: dass natürlich, wenn man das technologisch betrachtet,

00:04:49: Speaker 3: dass ja eigentlich gar keine Memorization stattfindet.

00:04:55: Speaker 3: Das wird ja in dem Sinne nicht gespeichert und wiedergegeben,

00:04:57: Speaker 3: sondern eigentlich nur über die Vorhersage

00:05:00: Speaker 3: des Transformer-Modells ja vorhergesagt.

00:05:04: Speaker 3: Aber ja scheinbar so genau. Und da bin ich auch gespannt, was für Filter da entstehen. Weil ich glaube, so ein Unlearning von Helene Fischer Songtexten, ich weiß nicht, ob das passieren wird. Ich denke, da werden vielleicht einfach Filter im Input oder im Output irgendwie passieren.

00:05:21: Speaker 2: Ja, ist es schon. Ist schon, witzigerweise.

00:05:24: Speaker 3: Ja? Hast du probiert?

00:05:26: Speaker 2: Ja, und da war dann urheberrechtlich geschützt.

00:05:28: Speaker 2: Es haben auch ganz viele auf LinkedIn folge ich

00:05:31: Speaker 2: der unterschiedlichen Anwälten.

00:05:32: Speaker 2: Und da war dann in der Kommentarspalte auch schon,

00:05:34: Speaker 2: also bei mir geht es schon, das nicht mehr.

00:05:36: Speaker 2: Und wenn ich es jetzt so eingebe, fängt er an

00:05:38: Speaker 2: und dann hört er auf und sagt, das ist urheberrechtlich geschützt.

00:05:41: Speaker 2: Ich kann dir aber den Inhalt zusammenfassen,

00:05:43: Speaker 2: um was es in dem Song geht.

00:05:45: Speaker 2: Bei mir sagt er, oder soll ich parodieren

00:05:47: Speaker 3: oder was Kreatives draus machen?

00:05:49: Speaker 3: Ja, ich glaube, da muss man halt einfach auch schnell reagieren.

00:05:51: Speaker 3: Aber ich bin gespannt, ob da weitere Cases nachkommen.

00:05:55: Speaker 3: gerade auf EU-Ebene,

00:05:57: Speaker 3: wie weit das noch trägt und

00:06:00: Speaker 3: was das dann auch auf andere Sachen...

00:06:01: Speaker 3: Ich finde Songtexte so krass, dass das jetzt ein Thema ist,

00:06:03: Speaker 3: aber das kann es natürlich super nachweisen,

00:06:06: Speaker 3: dass das halt hundertprozentig

00:06:07: Speaker 3: ist oder nicht.

00:06:10: Speaker 3: Und ja, schon

00:06:11: Speaker 3: ein krasser Case.

00:06:13: Speaker 3: Ich bin gespannt,

00:06:16: Speaker 3: was die finale Entscheidung wird oder ob es

00:06:17: Speaker 3: einfach am Ende des Tages ein paar Filter sind

00:06:19: Speaker 3: und man sagt, wer sich beschwert, wird halt irgendwie

00:06:21: Speaker 3: opt-outet und dann ist das irgendwie weg,

00:06:23: Speaker 3: dann filtern wir es irgendwie raus

00:06:25: Speaker 3: und dann war es das.

00:06:28: Speaker 3: Ich kann mir vorstellen, dass man über gewisse Jailbreaks

00:06:31: Speaker 3: auch irgendwie nochmal an die Sachen rankommt.

00:06:34: Speaker 3: Also bei so einem Unlearning

00:06:36: Speaker 3: stelle ich mir jetzt echt mal ziemlich schwer vor,

00:06:37: Speaker 3: das komplett rauszunehmen irgendwie.

00:06:39: Speaker 2: Nö, das würde auch gar nicht mehr gehen.

00:06:40: Speaker 2: Ich glaube, da sind die Modelle schon viel zu weit trainiert.

00:06:43: Speaker 2: Ich hätte irgendeinen mal in der Kommentarspeite gesagt,

00:06:45: Speaker 2: da kannst du das Modell dann in die Tonne treten.

00:06:48: Speaker 2: Ich glaube, ich würde eine Filterfunktion sein.

00:06:50: Speaker 3: Ich glaube nicht daran, dass ein OpenAI sagt,

00:06:52: Speaker 3: ich trainiere jetzt ein Modell neu,

00:06:53: Speaker 3: weil die GEMA, also das wäre krass,

00:06:55: Speaker 3: aber glaube ich jetzt mal nicht dran.

00:06:57: Speaker 3: Ein bisschen teuer.

00:07:00: Speaker 2: Ja, hätte ich halt

00:07:01: Speaker 2: den Move gemacht und wäre von Open R

00:07:03: Speaker 2: an die GEMA herangetreten und hätte vielleicht

00:07:04: Speaker 2: ein GEMA AI gebaut mit Open R zusammen.

00:07:08: Speaker 2: Wer weiß, was noch so kommt.

00:07:09: Speaker 3: Wir hatten ja auch

00:07:12: Speaker 3: um beim Thema Musik und

00:07:13: Speaker 3: KI zu bleiben,

00:07:15: Speaker 3: keine Liste, aber es passt jetzt eigentlich ganz gut.

00:07:16: Speaker 3: Auch diese Konstellation von

00:07:19: Speaker 3: Udio und Universal war es, glaube ich.

00:07:21: Speaker 2: Hast du das bekommen?

00:07:22: Speaker 2: Ja, mit dem, dass sie sich geeinigt haben.

00:07:24: Speaker 2: Und dann ging ja die Meldung rum, dass sozusagen nur so und so viele Tage noch übrig,

00:07:29: Speaker 2: also dass die Download-Funktion nicht mehr geht und dass die ganzen Creator sozusagen ihre Musik jetzt noch schnell runterladen sollten.

00:07:35: Speaker 2: Und auf Discord hat sich das sozusagen die Unmut breit gemacht.

00:07:39: Speaker 2: Ja, war natürlich eine spannende Meldung.

00:07:42: Speaker 3: Ich bin gespannt, wie das, also auf der einen Seite, also der Hintergrund dazu,

00:07:47: Speaker 3: die ganzen Major-Labels haben ja Udi und Suno, die KI-Musik-Tools, verklagt.

00:07:52: Speaker 3: Und da ist jetzt in einer Instanz oder durch gewisse Gespräche hat sich Udio mit Universal zusammengetan und wollen jetzt da eine partnerschaftliche Plattform aufbauen, um die Songs von Universal irgendwie KI generiert zu nutzen.

00:08:08: Speaker 3: Da bin ich halt gespannt, wie dann so eine Zusammenarbeit aussieht und ob das für Udio so eher der Todesstoß ist oder der noch krassere Push für alle, weil plötzlich mit echten Menschen KI-Musik quasi adaptiert würde.

00:08:21: Speaker 3: Du kannst vielleicht von deinen Lieblingskünstlern und Künstlerinnen was

00:08:23: Speaker 3: remixen und so weiter. Das wäre halt krass.

00:08:26: Speaker 3: Und ich bin

00:08:27: Speaker 3: mir ziemlich sicher, dass Zuno halt dieselben

00:08:29: Speaker 3: Probleme hat und dieselben Klagen an

00:08:31: Speaker 3: der Backe, weil die ja wahrscheinlich

00:08:33: Speaker 3: mit den ähnlichen Sachen trainiert haben.

00:08:35: Speaker 3: Und bin gespannt, wie sich da Zuno entwickelt.

00:08:37: Speaker 3: Also ich bin ein riesengroßer Fan von Zuno und auch

00:08:39: Speaker 3: dem aktuellen Fünfermodell.

00:08:41: Speaker 3: Das ist so krass gut.

00:08:44: Speaker 3: Und hört er sich

00:08:45: Speaker 3: ab und zu...

00:08:45: Speaker 2: Du bist ja derjenige, wollte ich gerade sagen,

00:08:47: Speaker 2: du bist ja derjenige, der halt

00:08:49: Speaker 2: AI-Musik auch pumpt, jeden Tag.

00:08:51: Speaker 2: Ist so geil.

00:08:52: Speaker 3: Zum Frühstück irgendein Thema ist da immer ein Song dazu.

00:08:56: Speaker 3: Super lustig.

00:08:57: Speaker 3: Und teilweise auch krass,

00:08:58: Speaker 3: was für Kombinationen

00:09:01: Speaker 3: oder was für Aufbau von Songs

00:09:03: Speaker 3: teilweise bei so wirklich random Themen

00:09:05: Speaker 3: gefunden wird.

00:09:07: Speaker 3: Ziemlich, ziemlich krass.

00:09:09: Speaker 3: Wir haben noch ein bisschen mehr mitgebracht.

00:09:10: Speaker 3: Womit wir weiter machen?

00:09:12: Speaker 2: Wir haben, vielleicht stelle ich dir mal die Frage,

00:09:15: Speaker 2: was ist denn gerade bei Amazon

00:09:17: Speaker 2: gegen Perplexity los?

00:09:18: Speaker 2: Was geht denn da bei Amazon und Perplexity?

00:09:21: Speaker 2: Hol mal die Leute ab.

00:09:22: Speaker 3: Ich hole mal die Leute ab, genau. Amazon hat

00:09:25: Speaker 3: Klage gegen Perplexity, genauer gesagt gegen den

00:09:26: Speaker 3: Comet-Browser eingereicht, da dieser

00:09:29: Speaker 3: natürlich in Lage ist, durch die

00:09:31: Speaker 3: Argentic-Features auch

00:09:33: Speaker 3: shoppen zu gehen. Zum Beispiel

00:09:35: Speaker 3: bei Amazon auch einen Checkout-Prozess durchzuführen,

00:09:37: Speaker 3: da ja der Browser

00:09:39: Speaker 3: auch das Interface soweit versteht und benutzen

00:09:41: Speaker 3: kann. Und das

00:09:43: Speaker 3: findet Amazon nicht so geil, kann

00:09:45: Speaker 3: ich auch in gewissem Maße verstehen, weil

00:09:47: Speaker 3: natürlich die Shops über

00:09:49: Speaker 3: die letzten Jahre immer darauf aufgebaut haben,

00:09:51: Speaker 3: Cross-Sell, Up-Sell, irgendwie hier nochmal

00:09:54: Speaker 3: noch eine Empfehlung, willst du noch die Versicherung dazu kaufen?

00:09:57: Speaker 3: Und der Agent macht das halt nicht. Und wenn du dann sagst, kauf mir mal irgendwie

00:10:01: Speaker 3: einen Sack Reis bei Amazon, mach das mal im Hintergrund.

00:10:05: Speaker 3: Und da hast du halt nicht den Reiskocher als Up-Sell,

00:10:08: Speaker 3: sondern halt nix. Und ich glaube,

00:10:11: Speaker 3: da bin ich gespannt, wie andere Shops

00:10:13: Speaker 3: auch größere reagieren. Wir haben ja dann auf der anderen Seite

00:10:15: Speaker 3: so E-Commerce-Buden wie Walmart, die ja dann

00:10:19: Speaker 3: eher sagen, hey, wir integrieren uns in ChatGBT

00:10:22: Speaker 3: in Instant Checkout.

00:10:23: Speaker 3: Das heißt, da gehen die die andere Richtung.

00:10:24: Speaker 3: Die sind ja auch kein Leichtgewicht.

00:10:28: Speaker 3: Also von daher bin ich gespannt,

00:10:30: Speaker 3: wie die großen E-Commerce-Player da noch reagieren,

00:10:32: Speaker 3: wenn es Richtung Agentic Shopping geht.

00:10:34: Speaker 3: Und Amazon ist halt einfach ein bisschen krasser

00:10:37: Speaker 3: an den Start gegangen.

00:10:39: Speaker 3: Mal gucken, wer die Schotten quasi dicht macht

00:10:42: Speaker 3: und wer sich solcher Agentic Shopping-Sachen

00:10:44: Speaker 3: da noch öffnet.

00:10:45: Speaker 3: Ich glaube, es wird ziemlich stark.

00:10:47: Speaker 3: Also ich habe es mal getestet in ChatGBT.

00:10:50: Speaker 3: shoppen mit Jet

00:10:51: Speaker 3: ist ziemlich flawless, also ziemlich flüssiger

00:10:53: Speaker 3: Experience, finde ich geil.

00:10:55: Speaker 2: Ja, das weißt du, hast du ja schon recht früh

00:10:57: Speaker 2: diesen Case auch gemacht, dass du, glaube ich, doch

00:10:59: Speaker 2: ein Agent hast,

00:11:02: Speaker 2: irgendeine Volt-Bestellung

00:11:03: Speaker 2: machen lassen. Stimmt, das haben wir in einer Live-Session gemacht,

00:11:05: Speaker 3: als der JetGBT-Agent rauskam, hat mir

00:11:07: Speaker 3: während der Live-Session quasi Essen bestellen

00:11:09: Speaker 3: lassen und es kam sogar an und es war unglaublich

00:11:11: Speaker 3: lecker, weil ich bei dem Shop noch nie bestellt habe

00:11:13: Speaker 3: und es war ein richtig,

00:11:15: Speaker 3: ich weiß auch nicht mehr, wie der Laden heißt, ich finde es nicht mehr,

00:11:18: Speaker 3: richtig, richtig gut.

00:11:20: Speaker 3: Und das hat der Agent dann bestellt. Aber es war damals noch

00:11:22: Speaker 3: sehr viel langsamer, muss man sagen.

00:11:24: Speaker 2: Ja, das stimmt.

00:11:25: Speaker 2: Dann gibt es ein neues Thema, was wir dabei haben

00:11:28: Speaker 2: bezüglich Open Source.

00:11:31: Speaker 2: Alle Open Source

00:11:32: Speaker 2: Fans da draußen und auch Lokalfans.

00:11:35: Speaker 2: Kimi

00:11:36: Speaker 2: K2.

00:11:38: Speaker 2: Was ist denn Kimi?

00:11:40: Speaker 2: Kimi hört sich an wie ein

00:11:42: Speaker 2: Gericht auf der Speisekarte.

00:11:44: Speaker 2: Entweder ein Gericht oder ein Anime.

00:11:47: Speaker 3: Was ist es denn in Wirklichkeit?

00:11:49: Speaker 3: Und warum hat es in den Podcasts geschafft?

00:11:53: Speaker 2: Weil so Benchmark-Themen,

00:11:54: Speaker 2: du bist doch unser Benchmark-Experte,

00:11:56: Speaker 2: spielst doch mal den Ball zurück.

00:11:58: Speaker 2: Warum ist es so Open-Source-mäßig

00:12:02: Speaker 2: von den Billion-Parametern so krass,

00:12:05: Speaker 2: aber nur Benchmark hast du dazu geschrieben?

00:12:07: Speaker 2: Genau, ich habe einfach mal die Notes gewartet,

00:12:09: Speaker 3: weil wir sind ja auch immer in der Folge,

00:12:10: Speaker 3: auch immer die Awareness,

00:12:11: Speaker 3: dass wir natürlich nicht sagen,

00:12:12: Speaker 3: hier ist ein Benchmark, der ist geiler

00:12:13: Speaker 3: und deswegen ist alles jetzt irgendwie viel, viel besser.

00:12:15: Speaker 3: Was ich hier viel, viel spannender finde, Kimi ist ein Unternehmen, ich glaube Moonshot AI aus China und Kimi ist das Modell und die haben jetzt Kimi K2 Thinking rausgebracht und das ist erstmal ein Gentic-Modell, was sehr, sehr viele auch Tool-Calls, also was dann die Nutzung von anderen Tools quasi für KI-Modelle ermöglicht, an den Tag legt und in diversen Benchmarks, hier natürlich immer mit, wie gesagt, beim Englischen mit a grain of salt, mit einer Prise Salz, gibt es in Deutschland auch.

00:12:45: Speaker 3: eigentlich führen? Mit Vorsicht einfach.

00:12:48: Speaker 3: Mit Vorsicht zu genießen.

00:12:49: Speaker 3: Genau. Hat nichts mit Salz zu tun

00:12:51: Speaker 3: im Deutschen.

00:12:54: Speaker 3: Aber das Spannende

00:12:55: Speaker 3: ist, die sind bei verschiedenen

00:12:58: Speaker 3: Benchmarks,

00:12:59: Speaker 3: gerade wenn es auch Richtung Agentic Search geht,

00:13:01: Speaker 3: Agentic Reasoning und Coding,

00:13:03: Speaker 3: sehr, sehr nah an den

00:13:05: Speaker 3: führenden Modellen von

00:13:07: Speaker 3: OpenAI und Anthropic dran.

00:13:09: Speaker 3: Also Sonnet beispielsweise, Sonnet

00:13:11: Speaker 3: 5 Thinking, das GBD 5 High

00:13:13: Speaker 3: Modell, sehr, sehr nah

00:13:15: Speaker 3: aber gleichzeitig Open Source

00:13:17: Speaker 3: beziehungsweise Open Ways besser gesagt

00:13:20: Speaker 3: und sind aber halt nicht so laut.

00:13:21: Speaker 3: Ich finde, das ging so ein bisschen unter,

00:13:24: Speaker 3: weil das war halt irgendwie,

00:13:25: Speaker 3: ja, wir haben das jetzt auch irgendwie released,

00:13:27: Speaker 3: es ist aber nicht so ein Knall,

00:13:28: Speaker 3: wie jetzt irgendwie die US-Models raushauen.

00:13:32: Speaker 3: Und das heißt auch da wieder,

00:13:33: Speaker 3: mein Take ist ja immer,

00:13:34: Speaker 3: China ist schon krass gut dabei

00:13:36: Speaker 3: und ich finde diese Open Ways-Strategie,

00:13:40: Speaker 3: muss man fast schon sagen,

00:13:41: Speaker 3: bei vielen chinesischen Labs sehr, sehr faszinierend.

00:13:44: Speaker 3: Und ja, mal gucken, inwiefern das auch wirklich nutzbar ist.

00:13:47: Speaker 3: Ich habe es mal so ein bisschen angetestet.

00:13:50: Speaker 3: Für Deutsch muss ich sagen, ist okay.

00:13:53: Speaker 3: Habe ich schon bessere Sachen auch Open Source gesehen.

00:13:56: Speaker 3: Allerdings den Argentic-Part habe ich so noch nicht durchgebenchmarked

00:13:59: Speaker 3: oder durchgetestet.

00:14:00: Speaker 3: Aber ja, nicht nur in die USA gucken,

00:14:03: Speaker 3: auch in die andere Richtung.

00:14:04: Speaker 3: Ich glaube, das lohnt sich.

00:14:04: Speaker 2: Ja, wir hatten ja hier, um USA zu zitieren,

00:14:07: Speaker 2: ich glaube, Nvidia, der Nvidia-CEO hat ja gesagt,

00:14:09: Speaker 2: dass es seiner Meinung nach das AI-Race die Chinesen machen werden.

00:14:14: Speaker 2: Und deswegen ist das halt einfach auch,

00:14:17: Speaker 2: natürlich, das passt natürlich auch ein bisschen so zur Welt

00:14:18: Speaker 2: und zur Kultur. Die Amis

00:14:20: Speaker 2: leben vom Marketing und von der Show

00:14:22: Speaker 2: und die Chinesen

00:14:25: Speaker 2: leben da von der Effizienz

00:14:27: Speaker 2: und dementsprechend

00:14:29: Speaker 2: sind noch die Releases bei denen

00:14:30: Speaker 2: deutlich leiser.

00:14:32: Speaker 3: Die releasen was und dann müssen sie weitermachen.

00:14:35: Speaker 3: Finde ich gut.

00:14:35: Speaker 2: Genau.

00:14:37: Speaker 2: Das war ja bei Seed Dream

00:14:39: Speaker 2: auch so,

00:14:41: Speaker 2: wo dann Nano-Banana rauskam

00:14:43: Speaker 2: und dann kommen die Chinesen zwei Wochen später und machen 4K.

00:14:47: Speaker 2: Dementsprechend Gerüchte, Küche.

00:14:48: Speaker 2: Aber du bist ja unser LinkedIn-Fame-Mensch hier.

00:14:51: Speaker 2: Und jeder, der uns zuhört, unsere Zuhörerinnen und Zuhörer,

00:14:54: Speaker 2: unsere kleine Community, die brav immer einschaltet,

00:14:57: Speaker 2: ihr folgt ja sicherlich alle dem Jens auf LinkedIn.

00:15:00: Speaker 2: Dem Max auch nicht.

00:15:01: Speaker 2: Und deswegen, ja, passt schon, aber dem Jens erstmal.

00:15:04: Speaker 2: Und das Wichtige ist ja, dass der Jens euch immer Sachen beibringt.

00:15:07: Speaker 2: Er teilt ja immer sein Wissen sehr gerne.

00:15:09: Speaker 2: Und deswegen ist der Jens eigentlich auch in so einem richtigen,

00:15:12: Speaker 2: dem Creator-Programm von Google.

00:15:15: Speaker 2: Und da gibt es ein paar Gerüchte.

00:15:17: Speaker 2: Und ich habe auch schon ein paar Gerüchte.

00:15:18: Speaker 2: Ich habe witzigerweise auf Social Media gesehen,

00:15:20: Speaker 2: Instagram, Nano-Banana 2,

00:15:23: Speaker 2: Bilder von Jeffrey Epstein und P. Diddy beim Golfspielen.

00:15:29: Speaker 2: Wirklich unfassbar echt aussehende Bilder,

00:15:33: Speaker 2: wo ich schon sage, okay, jetzt müssen wir langsam weiter

00:15:37: Speaker 2: über die Kennzeichnung, über die KI-Kontrolle,

00:15:40: Speaker 2: was ist echt und was es nicht ist,

00:15:42: Speaker 2: weil die Leute werden ja leider immer dummer da draußen auf den sozialen Medien und überall generell.

00:15:47: Speaker 2: Siehe das Thema AI-Models, also weibliche AI-Models.

00:15:53: Speaker 2: Unfassbar, was da für Typen drunter unter den Kommentaren stehen.

00:15:55: Speaker 2: Und du kennst ja unseren Case, den ich ja schon vor zwei Jahren hatte.

00:15:59: Speaker 2: Da war die AI noch nicht so weit und da hat es schon funktioniert.

00:16:02: Speaker 2: Dementsprechend, was kommt, um jetzt den Bogen zu spannen, wieder, was kommt, was gibt es denn da für Gerüchte?

00:16:07: Speaker 2: Die Gerüchteküche brodelt.

00:16:10: Speaker 3: Genau, ich darf ja, das habe ich auch schon mal bei LinkedIn gepostet, bin ja in einem Gemini-Kreis mit drin, wo ich schon mal Zugang zu ein paar Sachen ein bisschen früher bekomme. Aber abgesehen davon, das heißt, ich blaue dir nichts aus, wo ich vielleicht schon was sehen kann.

00:16:27: Speaker 3: Aber was wir auf X vor allen Dingen und auf LinkedIn schon sehen, es gibt sehr, sehr, sehr, sehr deutliche Anzeichen, dass von Google, aber auch von OpenAI etwas kommt und zwar wahrscheinlich ziemlich zeitnah.

00:16:39: Speaker 3: Denn wir haben in diversen Screenshots von Google Cloud-Konsolen etc. schon Hinweise auf Gemini 3-Modelle, das heißt ein neues Modell von Google, was meine Hoffnung endlich wieder 2 Millionen Token Context hat, vielleicht auch verlässlich, weil Google hat ja mal ein 2 Millionen Token Context Fenster-Modell gehabt, das haben die irgendwann aber rausgezogen aus dem AI-Store oder aus dem AI-Lab.

00:17:03: Speaker 3: Und ich hoffe, dass da das Modell vielleicht sogar noch ein bisschen stärker wird,

00:17:07: Speaker 3: weil ich finde das Kontextfenster von Google ziemlich verlässlich.

00:17:11: Speaker 3: Arbeite ich sehr gerne mit dem Gemini-Modell, mit dem 2.5er.

00:17:14: Speaker 3: Und was du gerade schon angeteasert hast, Nano Banana 2.

00:17:18: Speaker 3: Ich bin aber, ich finde, man hat zwar ein paar Leaks oder vermeintliche Leaks gesehen,

00:17:26: Speaker 3: aber ich fand es halt da schwierig wirklich zu sagen, ist das jetzt Nano Banana 2?

00:17:29: Speaker 3: Was steckt da wirklich hinter?

00:17:30: Speaker 3: Das war bei einem Anbieter, ich weiß nicht, irgendein Tool-Anbieter hat es wohl mal irgendwie aus Versehen drin,

00:17:35: Speaker 3: vielleicht auch Absicht, I don't know.

00:17:37: Speaker 3: Und da weiß ich noch nicht, von Google hat man, und das war bei NanoBanana1 ja der Fall,

00:17:43: Speaker 3: schon erste Anzeichen gesehen, irgendwelche Bananen-Emojis in irgendwelchen Tweets und so weiter drin.

00:17:48: Speaker 3: Das habe ich bisher noch nicht so gesehen, aber ich könnte mir vorstellen, dass das auch so kommt.

00:17:54: Speaker 3: Und da bin ich gespannt, wie gut das Modell dann noch wirklich wird.

00:17:57: Speaker 3: Und letzter Punkt in der Gerüchteküche, nicht nur Google gibt fleißig Gas, sondern auch OpenAI.

00:18:03: Speaker 3: Auch hier gab es in diversen Dateien, die auf dem OpenAI-Server auch liegen, auch Hinweise zu GPT 5.1 Thinking.

00:18:14: Speaker 3: Also ein vermeintlich kleines Update von 5.0 oder 5.0, wie du sagen würdest.

00:18:21: Speaker 3: O zu 5.1 Thinking.

00:18:25: Speaker 3: Und da, ich bin bei den Versionssprüngen

00:18:27: Speaker 3: immer so ein bisschen

00:18:29: Speaker 3: so gespannt, was da so kommt.

00:18:31: Speaker 3: Weil wir haben zum Beispiel bei Gemini ja irgendwie einen großen

00:18:33: Speaker 3: Sprung auf die Dreier von 2.5,

00:18:35: Speaker 3: also eine vermeintlich große

00:18:37: Speaker 3: Erweiterung des Modells.

00:18:39: Speaker 3: Bei GPT wäre es 0,1.

00:18:42: Speaker 3: Also entweder will man

00:18:43: Speaker 3: so ein bisschen auf die Kacke hauen und sagen,

00:18:44: Speaker 3: wir machen jetzt hier 0,1 kleine Versionsupdate,

00:18:47: Speaker 3: aber halt viel, viel geiler.

00:18:49: Speaker 3: Oder es hat wirklich nur eine kleine Veränderung,

00:18:50: Speaker 3: dass man sagt, vielleicht ein bisschen mehr

00:18:53: Speaker 3: Performance, besseres Toolcalling,

00:18:55: Speaker 3: größtes Kontextfenster vielleicht auch.

00:18:57: Speaker 3: Ich weiß es nicht, aber ich denke, das werden wir im November

00:18:59: Speaker 3: noch sehen. Und

00:19:01: Speaker 3: um da die Brücke zu spannen zu dem vorherigen

00:19:03: Speaker 3: Thema, ich kann mir auch sehr,

00:19:05: Speaker 3: sehr hart vorstellen und es gibt so ein paar Modelle

00:19:07: Speaker 3: in entsprechenden

00:19:09: Speaker 3: Arenas, die noch im

00:19:11: Speaker 3: Stealth-Mode sind, dass wir auch aus China

00:19:13: Speaker 3: irgendwas sehen, was

00:19:15: Speaker 3: zwei Wochen später kommt und

00:19:17: Speaker 3: Open Source ist und irgendwie besser und günstiger

00:19:19: Speaker 3: oder im Bildbereich irgendwie nochmal 4K-Drag

00:19:21: Speaker 3: mitdeckt, ich weiß es nicht, aber ich kann es mir sehr,

00:19:23: Speaker 3: sehr gut vorstellen, dass da auch in China

00:19:25: Speaker 3: nochmal direkt ein Modell hinterherfliegt.

00:19:28: Speaker 2: Unbedingt, also die werden

00:19:29: Speaker 2: definitiv was schon in der Pipeline haben.

00:19:31: Speaker 2: Es ist eigentlich meiner Meinung nach

00:19:33: Speaker 2: auch nur eine Marketingstrategie, die die Chinesen

00:19:35: Speaker 2: fahren. Lasst mal die Amis

00:19:37: Speaker 2: teuer das raushauen und dann hauen wir es raus.

00:19:40: Speaker 2: Und

00:19:41: Speaker 2: ja, also ich bin echt gespannt,

00:19:43: Speaker 2: was kommt und wir

00:19:45: Speaker 2: wissen es ja selber, wie es ist. Jetzt seit

00:19:48: Speaker 2: nunmehr einigen Jahren

00:19:49: Speaker 2: beschäftigen wir uns mit dem Thema

00:19:51: Speaker 2: und wir sind sehr ungeduldig geworden.

00:19:54: Speaker 2: sehr verwöhnt geworden.

00:19:55: Speaker 2: Wenn ich mir denke, von wo wir anfangen,

00:19:57: Speaker 2: wie wir angefangen haben beim Mid-Journey,

00:20:00: Speaker 2: noch keine Referenzbilder,

00:20:01: Speaker 2: Stable Diffusion.

00:20:03: Speaker 2: Erinnert mich so ein bisschen an die ersten

00:20:05: Speaker 2: Tage von Social, wo Meta-Ads

00:20:07: Speaker 2: live kamen und du

00:20:09: Speaker 2: irgendwie im Werbekonto noch

00:20:11: Speaker 2: AB-Testing händisch machen musstest.

00:20:12: Speaker 2: Jetzt geht alles automatisiert.

00:20:15: Speaker 3: Ich weiß noch,

00:20:17: Speaker 2: als ich 2023,

00:20:19: Speaker 3: das ist nicht lange her,

00:20:21: Speaker 3: auf der OMR-Bühne war und

00:20:22: Speaker 3: ein Film von Runway, ich glaube es war

00:20:24: Speaker 3: Gen 2, gezeigt habe. Und für

00:20:26: Speaker 3: alle das so mindblowing war. Und das

00:20:28: Speaker 3: war einfach absoluter...

00:20:30: Speaker 3: So schlecht.

00:20:32: Speaker 3: Ich habe irgendwelche Superhelden gezeigt, die Kaffee getrunken

00:20:35: Speaker 3: haben. Die Kaffeetasse war irgendwie rechts neben dem Arm

00:20:36: Speaker 3: in der Luft am Schweben. Alle haben irgendwie komische Gesichter

00:20:38: Speaker 3: gemacht. Und das ist halt einfach nicht

00:20:41: Speaker 3: lange her. Und wenn du dir jetzt die führenden

00:20:42: Speaker 3: Videomodelle anguckst,

00:20:44: Speaker 3: krass. Also wir sind glaube ich sehr, sehr

00:20:47: Speaker 3: stark verwöhnt, was einfach das angeht.

00:20:49: Speaker 3: Und ich hätte mir nicht denken können,

00:20:50: Speaker 3: wo wir jetzt stehen vor drei Jahren oder so.

00:20:52: Speaker 3: oder vier.

00:20:54: Speaker 2: Ja, und ich glaube, das wird halt auch das Thema werden,

00:20:57: Speaker 2: wo man ja auch sieht,

00:20:58: Speaker 2: dass jetzt auch immer mehr,

00:21:00: Speaker 2: also durch die Verbesserung

00:21:02: Speaker 2: der Tools ist natürlich

00:21:04: Speaker 2: auch die Einfachheit, Bilder zu generieren,

00:21:06: Speaker 2: wo man sich früher einen abgefriemelt hat,

00:21:09: Speaker 2: schon irgendwie was anderes

00:21:11: Speaker 2: geworden und dementsprechend

00:21:12: Speaker 3: eine sehr schöne

00:21:14: Speaker 3: Überleitung. Mit Bildern hat man sich

00:21:16: Speaker 3: ja immer abgefriemelt

00:21:18: Speaker 3: und sehr klein, teile

00:21:20: Speaker 3: Bilder generiert, hochgeladen, runtergeladen,

00:21:22: Speaker 3: voll doof. Max, gibt es da nichts Besseres?

00:21:24: Speaker 3: Kann man nicht verkürzen, was raus.

00:21:26: Speaker 2: Ja, danke. Küsse eure Augen.

00:21:28: Speaker 2: Freepick, wenn ihr hört, schickt mir gerne Free Credits.

00:21:31: Speaker 2: Du hast ja schon Free Credits.

00:21:33: Speaker 2: Freepick, ich liebe euch.

00:21:34: Speaker 2: Meine ganzen Agenturen

00:21:36: Speaker 2: sind alle auf Freepick oder Comfy umgestiegen

00:21:38: Speaker 2: und wir haben hier das Thema

00:21:40: Speaker 2: Canvas bzw. Spaces.

00:21:42: Speaker 2: Was ist es denn? Warum ist es geil?

00:21:45: Speaker 2: Spaces ist

00:21:47: Speaker 2: geil, weil ich nenne es

00:21:48: Speaker 2: jetzt mal ganz einfach erklärt.

00:21:50: Speaker 2: Es ist wie ein Reißbrett-Format.

00:21:53: Speaker 2: bei dem man sozusagen in der Übersicht praktisch mehrere Iterationen eines Arbeitsworkflows mit unterschiedlichen Modellen sehr einfach durchdeklinieren kann.

00:22:03: Speaker 2: Das heißt, nehmen wir mal ein Beispiel mit den Angles, was wir gerade gelernt haben vom lieben Jens.

00:22:09: Speaker 2: Da habe ich heute gerade wieder auch was gelernt.

00:22:12: Speaker 2: Es ist ja das Model QAN, lass mich kurz spicken, Camera Angle Control rausgekommen.

00:22:20: Speaker 2: Für all die, die die KI nutzen, wissen ja, Hugging Face ist so eine Webseite, wo man so Models testen kann. Und in diesem Spaces-Workflow, jetzt bei FreePick ist es so, nehmen wir mal ein Beispiel da, wir haben ein frontales Bild, was ihr uploadet in diesen Spaces als euer Startbild.

00:22:37: Speaker 2: Und dann könnt ihr sozusagen mit diesem Spaces-Ansatz dieses Bild jetzt sehr schnell in drei, vier, fünf, sechs, sieben Angles mit zum Beispiel diesem QAN-Model durchspielen oder aber ihr nutzt zum Beispiel vorgefertigte Templates von Spaces, die teilweise, da denke ich mal, wird auch dann mehr von Templates rauskommen.

00:23:00: Speaker 2: Es werden dann immer mehr werden wahrscheinlich.

00:23:02: Speaker 2: Vielleicht wird es dann auch die Möglichkeit geben, dass Creator selber ihre Spaces hochladen.

00:23:07: Speaker 2: Also Workflows praktisch zeigen, ein E-Commerce-Workflow oder ein Produkt-Workflow.

00:23:12: Speaker 2: Und es ist wirklich, wirklich verrückt, weil man da deutlich schneller Creative-Visualisierungen bekommt als vorher.

00:23:21: Speaker 2: Aber jetzt kommt gleich Disclaimer, Spoiler, Achtung.

00:23:24: Speaker 2: Ihr müsst eure Credits im Blick haben.

00:23:28: Speaker 2: Liebe Grüße an Freepick, Optimierung, baut doch mal hier irgendwo bitte so einen Zähler hin, damit wir nicht alle unsere ganzen Credits verschießen. Also das ist echt sehr interessant. Für diejenigen, die zum Beispiel andere AI-Tools und nicht Freepick, gibt es ja ganz viele Anbieter da draußen, wir machen ja nicht nur Werbung für einen, natürlich nicht, wir sind ja nicht so lobbymäßig unterwegs.

00:23:48: Speaker 2: Zum Beispiel Crea AI hatte das schon früher drin, diese sogenannten, ich nenne es jetzt mal Reißbrett-Workflow und jeder, der sich dem aneignen möchte, kann sich da auch super coole YouTube-Videos anschauen, wo Creator genau sowas zeigen, wie man so Workflows baut in Freepig, Crea, wie sie auch alle heißen.

00:24:09: Speaker 2: Aber jetzt bei unserem Fall hat Flippig eben dieses Abteil gefahren.

00:24:12: Speaker 3: Aber man muss ja sagen, dass tatsächlich WayVAI,

00:24:17: Speaker 3: ich glaube, das sind die, die damit auch gestartet sind mit diesem Flippig-Infair-Vlog.

00:24:22: Speaker 3: Die waren es echt gut.

00:24:22: Speaker 3: Die sind auch von Flippig gekauft worden, von der Smarter Move.

00:24:26: Speaker 3: Aber ich glaube, das finde ich halt auch spannend.

00:24:28: Speaker 3: Du bist jetzt nochmal eine ganz andere Kreativ-Ecke,

00:24:31: Speaker 3: aber einfach Workflows zu bauen,

00:24:32: Speaker 3: wo du beliebige Bild- und Videomodelle kombinieren kannst

00:24:36: Speaker 3: und dann auch wirklich mit dem Output von etwas weiterarbeiten kannst,

00:24:39: Speaker 3: das finde ich halt echt geil.

00:24:41: Speaker 3: Anstatt halt so hochladen, runterladen, wieder woanders rein.

00:24:45: Speaker 3: Das hat Freepix schon recht smart gemacht, auch übergreifend zu arbeiten,

00:24:49: Speaker 3: aber halt noch nicht so dynamisch.

00:24:50: Speaker 3: Und das finde ich schön, dass viele Kreativ-Tools

00:24:54: Speaker 3: halt in diese Canvas-Reißbrett-Logik halt rübergehen.

00:24:58: Speaker 3: Ich glaube, das macht das Arbeiten nochmal ein bisschen spannender

00:25:01: Speaker 3: und schöner und visueller.

00:25:04: Speaker 3: Voll.

00:25:05: Speaker 3: Bleiben wir mal im Kreativbereich.

00:25:07: Speaker 3: Ich habe noch etwas mitgebracht von Adobe.

00:25:11: Speaker 3: Ihr habt so ein bisschen drunter geschrieben, ähnlich wie Google.

00:25:15: Speaker 3: Erinnerst du dich noch?

00:25:16: Speaker 3: Wir haben noch damals auch über Google immer ganz gerne abgelästert mit Google Bart.

00:25:20: Speaker 3: War nicht geil.

00:25:21: Speaker 3: Und auch Adobe hat ja, finde ich, am Anfang jetzt mit den Firefly-Modellen

00:25:26: Speaker 3: eine okay Leistung gehabt.

00:25:28: Speaker 3: Aber ich finde jetzt gerade, was man auf der Adobe Max gesehen hat,

00:25:31: Speaker 3: die hauen echt ordentlich Sachen raus,

00:25:33: Speaker 3: die natürlich direkt integriert sind in Premiere, in Photoshop und Adobe Express und so weiter.

00:25:40: Speaker 3: Und ich finde es spannend, wie man hier auch Unternehmen so ein bisschen unterschätzt.

00:25:45: Speaker 3: Vielleicht kommt Apple auch irgendwann mal.

00:25:48: Speaker 3: Aber ich finde, Adobe gibt hier ordentlich Gas, was die KI-Features angeht.

00:25:52: Speaker 3: Und ich persönlich finde zum Beispiel das Layer-Editing von KI-Bildern total geil,

00:25:56: Speaker 3: dass du plötzlich ein Bild in einzelne Elemente zerlegen kannst und damit halt irgendwie Drag-and-Drop machen kannst.

00:26:01: Speaker 3: als eigentlich gelernter

00:26:03: Speaker 3: Mediendesigner ist das krass, wenn ich überlege,

00:26:05: Speaker 3: wie ich damals Photoshop gelernt habe mit

00:26:07: Speaker 3: magnetischen Lasso und

00:26:09: Speaker 3: dem ganzen Kram.

00:26:11: Speaker 3: Von daher auch da cool,

00:26:13: Speaker 3: dass da halt das noch näher kommt.

00:26:15: Speaker 3: Und ich bin, ich glaube,

00:26:17: Speaker 3: das war ein sehr guter Move von Adobe, sich doch zu öffnen,

00:26:19: Speaker 3: den anderen Modellen gegenüber,

00:26:20: Speaker 3: wie im Flux oder

00:26:23: Speaker 3: im Runway oder auch anderen Modellen

00:26:25: Speaker 3: das halt zu integrieren.

00:26:28: Speaker 3: Schon

00:26:29: Speaker 3: nice.

00:26:31: Speaker 2: Ja, und vor allem haben wir ja sehr lange gewartet.

00:26:36: Speaker 2: Und jetzt hoffen wir, dass Adobe mal weiter in die Pötte kommt.

00:26:38: Speaker 2: Weil natürlich, ich meine, wir hatten ja den Case bei Adobe,

00:26:41: Speaker 2: du hast es gerade gesagt, geöffnet für Modelle.

00:26:43: Speaker 2: Es ist ja sozusagen, glaube ich, auch mit dem Nano-Banana-Plugin

00:26:47: Speaker 2: damals von einem freien Künstler oder Creator gewesen.

00:26:50: Speaker 2: Ich glaube sogar ein Holländer, ich weiß es,

00:26:52: Speaker 2: weil ich habe das Plugin runtergeladen,

00:26:54: Speaker 2: der dann sozusagen dieses Plugin für Adobe gebaut hat,

00:26:56: Speaker 2: um einen Nano-Banana in Adobe zu integrieren.

00:26:59: Speaker 2: was sie ja dann auch schnell übernommen haben, Adobe.

00:27:01: Speaker 2: Das heißt, da glaube ich, ist jetzt auch klar,

00:27:04: Speaker 2: dass 5 nach 12 war und jetzt sie ein bisschen nachgezogen sind.

00:27:09: Speaker 2: Weil natürlich sozusagen für jemand, der wie ich ja gar kein Adobe kann,

00:27:13: Speaker 2: weil dafür habe ich ja tolle Kolleginnen und Kollegen,

00:27:15: Speaker 2: die das wirklich professionell richtig gut können,

00:27:18: Speaker 2: denke ich mir, was brauche ich jetzt Adobe, wenn ich FreePick habe?

00:27:22: Speaker 2: Also FreePick, das war jetzt der letzte Disclaimer von FreePick.

00:27:25: Speaker 2: Nee, aber da wird sicherlich noch mehr kommen.

00:27:27: Speaker 2: Und ich glaube, vielleicht haben sie auch so ein bisschen den Move gemacht.

00:27:31: Speaker 2: Lassen wir mal da alle draußen machen.

00:27:33: Speaker 2: Viel Geld investieren, viel Geld ausgeben, viel ausprobieren.

00:27:36: Speaker 2: Und dann schauen wir, dass wir die besten Sachen uns abschreiben

00:27:39: Speaker 2: und bei uns integrieren.

00:27:41: Speaker 2: Aber wir haben ja natürlich noch eine andere große Meldung dabei,

00:27:43: Speaker 2: die schon ein bisschen einen Raunen in der Meta-Welt raus.

00:27:50: Speaker 2: In der Meta-Welt, Meta-AI.

00:27:51: Speaker 2: Genau. Relativ aktuell.

00:27:55: Speaker 3: Guckt mal gerade von wann die Nachricht ist vom 11. November, also von Mittwoch, Dienstag.

00:28:04: Speaker 3: Jan LeCun, der ist ja quasi die Instanz bei Meta, wenn es um das ganze Thema AI geht,

00:28:11: Speaker 3: auch die führende Person, wenn es um die ganzen Lama-Modellen ging.

00:28:14: Speaker 3: Und ist ja auch, finde ich, eine spannende Person in dieser ganzen AI-Bubble,

00:28:19: Speaker 3: weil er natürlich auch eine gewisse Kritik gegenüber die Leistungsfähigkeit

00:28:23: Speaker 3: und skalierbarer Fähigkeit von Transformer-Modellen

00:28:25: Speaker 3: immer mal wieder in den Raum geschmissen hat

00:28:27: Speaker 3: und sich da auch vielleicht so ein bisschen gegen den Hype

00:28:29: Speaker 3: positioniert hat, was ich erstmal auch

00:28:31: Speaker 3: eine sehr interessante Sichtweise finde und

00:28:33: Speaker 3: ist mir sicher ein smarter Typ.

00:28:35: Speaker 3: Der wird aber wahrscheinlich

00:28:37: Speaker 3: Meta-AI oder Meta im weitesten Sinne

00:28:39: Speaker 3: verlassen und

00:28:41: Speaker 3: ein eigenes Startup gründen. Da bin ich gespannt,

00:28:43: Speaker 3: ob das ein Move

00:28:45: Speaker 3: wird in Richtung, wir machen irgendwie

00:28:47: Speaker 3: ehrlichere AI, so ein bisschen dieser

00:28:49: Speaker 3: Anthropic-Move, die ja auch aus dem

00:28:51: Speaker 3: Open-AI-Kosmos raus sind und dann

00:28:53: Speaker 3: mit Claude, was

00:28:55: Speaker 3: eher verlässlicheres, ethischeres, ehrlicheres

00:28:57: Speaker 3: gründen wollten oder gründet haben,

00:29:00: Speaker 3: was da so kommt,

00:29:01: Speaker 3: aber er wird da Meta auch verlassen

00:29:03: Speaker 3: und das natürlich für

00:29:05: Speaker 3: Meta im AI-Bereich, also ich

00:29:07: Speaker 3: weiß natürlich nicht, die haben jetzt natürlich auch noch einiges eingekauft,

00:29:09: Speaker 3: einige Menschen

00:29:11: Speaker 3: und Companies dazugekauft, aber

00:29:13: Speaker 3: inwiefern das so Meta rausfedert,

00:29:15: Speaker 3: wenn da so eine wichtige Person

00:29:17: Speaker 3: da rausfliegt,

00:29:19: Speaker 3: aber ja, mal schauen. Ja, das ist ähnlich

00:29:20: Speaker 2: wie der Fußballtransfermarkt oder generell

00:29:22: Speaker 2: der sportliche Transfermarkt geworden.

00:29:25: Speaker 2: Eine irre

00:29:27: Speaker 2: Summenspiel für, sage ich mal,

00:29:29: Speaker 2: Menschen, die

00:29:30: Speaker 2: natürlich krass sind, die dann einfach krasse Gehälter.

00:29:33: Speaker 2: Witzigerweise hat OpenAI ja auch

00:29:34: Speaker 2: eine KI-Topkraft bei Intel abgeworben.

00:29:37: Speaker 2: Da wird alle hin und her geschoben.

00:29:39: Speaker 2: Da wird er nun ja.

00:29:40: Speaker 2: Passend zu dem Meme, was ich vor

00:29:42: Speaker 2: zwei Tagen gesehen habe, sehr, sehr

00:29:44: Speaker 2: passend bei dem gesehen habe,

00:29:47: Speaker 2: so nach dem Motto, du hängst

00:29:48: Speaker 2: daheim ab und denkst darüber nach und siehst

00:29:50: Speaker 2: wie die KI-Firmen Fake-Geld hin- und herschieben.

00:29:55: Speaker 2: Und da war dieses Image von diesen ganzen Oracles und Firmen dieser Welt,

00:30:00: Speaker 2: die sozusagen sich ihre Billionen hin- und herschieben.

00:30:04: Speaker 2: Also droht die KI-Blase zu platzen.

00:30:06: Speaker 2: Das ist ja das große Thema, was ja auch in der Wall Street war,

00:30:09: Speaker 2: vor einer Woche gelesen.

00:30:11: Speaker 2: Mal schauen.

00:30:12: Speaker 2: Also ich finde es immer interessant, bei Meta ist es so,

00:30:16: Speaker 2: ich bin jetzt in erster Linie sehr enttäuscht von Meta bezüglich dem AI-Thema.

00:30:20: Speaker 2: Und dahingehend, dass ich wirklich sehr lange...

00:30:23: Speaker 3: Du hast ja mitgegangen integriert. Ist doch nett.

00:30:26: Speaker 2: Ja, also vielleicht tue ich kurz aus, wenn ich einen kurzen Rant abgeben darf.

00:30:31: Speaker 2: Ich bin ja, wir machen ja mit Social, klar, wir haben alle Plattformen im Portfolio und ich will jetzt auch nicht renten, weil natürlich das auch eine gewisse Art und Weise für meine Selbstständigkeit war.

00:30:39: Speaker 2: Aber zum Thema Philosophie, wo geht die Plattform hin oder was ist Meta überhaupt?

00:30:44: Speaker 2: Und ich habe Zuckerberg sehr lange in Schutz genommen,

00:30:46: Speaker 2: als schon die ersten Leute sich über ihm seine

00:30:48: Speaker 2: Glasses und Brillen witzig gemacht haben.

00:30:49: Speaker 2: Und du erinnerst dich

00:30:52: Speaker 2: auch die Oculus und Co.

00:30:53: Speaker 2: Ich habe sie ja auch.

00:30:55: Speaker 2: Und ich habe irgendwie das Gefühl,

00:30:58: Speaker 2: dass Meta oder Zuckerberg

00:31:00: Speaker 2: einfach, dem einfach die Kompetenz

00:31:02: Speaker 2: fehlt. Also er ist nicht dieser,

00:31:04: Speaker 2: er ist nicht dieses Superbrain,

00:31:06: Speaker 2: wie traurigerweise Elon Musk,

00:31:08: Speaker 2: auch wenn er ein Freak ist,

00:31:10: Speaker 2: und wie andere, sondern

00:31:12: Speaker 2: der braucht,

00:31:13: Speaker 2: Er ist in meiner Meinung nach in vieler Hinsicht mehr Schein als Sein.

00:31:17: Speaker 2: Und du siehst es auch an den Entscheidungen, die er jetzt unternehmerisch getroffen hat.

00:31:21: Speaker 2: Jetzt kannst du tippen, ja, okay, in zehn Jahren tragen alle Gläser,

00:31:24: Speaker 2: diese Oakley-Glässe und Rayburn-Glässe.

00:31:27: Speaker 2: Aber generell bei Meta ist es so,

00:31:30: Speaker 2: er wollte die Agentur und die Mediagentur abschaffen,

00:31:33: Speaker 2: alles wird automatisiert.

00:31:35: Speaker 2: Gleichzeitig ist der Support für Werbentreibende,

00:31:37: Speaker 2: also auch für kleine Unternehmer, miserabel.

00:31:39: Speaker 2: Also jemand, bevor ich 1.000 Euro als kleiner Bäckerlein,

00:31:43: Speaker 2: beim Meta reinwerfe, buche ich immer noch die Flyer-Werbung um die Ecke, weil da habe ich eine direkte Ansprechpartnerin.

00:31:49: Speaker 2: Die KI-Lösungen, die sie da implementiert hat, Meta, ist alles ein Rot, jetzt mal ganz ehrlich, auch bei Insta und so.

00:31:54: Speaker 2: Diese ganzen scheiß Avatare, die die da integriert haben, interessiert auch niemanden.

00:31:58: Speaker 2: Die Plattformen werden immer qualitativ schlechter.

00:32:01: Speaker 2: Zehn Prozent hast du ja gelesen, gab ja die Reuters-Studie und vor zwei, drei Tagen oder vor fünf Tagen,

00:32:07: Speaker 2: wo rauskam, dass Meta angeblich zehn Prozent von ihrem ganzen Gewinn durch Scam macht.

00:32:13: Speaker 2: wo dann Meta berichtigt hat, ja, nee, doch nicht, es war nicht so genau.

00:32:17: Speaker 2: So, die Plattform ist qualitativ am Abrotzen, also Kommentarspalten, Hasskommentare.

00:32:23: Speaker 2: Ja, aber so, und dann denke ich mir jetzt so, klar, dass irgendein französischer Forscher,

00:32:28: Speaker 2: der wirklich ein AI-Pionier ist, dann wahrscheinlich auch irgendwie diesen Wang vor die Nase gesetzt bekommen hat,

00:32:34: Speaker 2: den dann der Zuckerberg für einen Haufen Geld eingekauft hat.

00:32:37: Speaker 2: Klar, und das zeigt für mich so ein bisschen das Thema, du kannst dir halt nicht immer,

00:32:41: Speaker 2: du kannst halt kein Top-Clubs immer sein in so einem Sportthema,

00:32:44: Speaker 2: wenn du nur alle irgendwie kaufst.

00:32:46: Speaker 2: Und wenn du aber irgendwie gar nicht die Vision hast,

00:32:48: Speaker 2: wo wollen die denn hin?

00:32:49: Speaker 2: Also die können froh sein, dass sie strategisch so viel Geld hatten

00:32:52: Speaker 2: und so groß waren, dass sie halt alles nur zugekauft haben.

00:32:54: Speaker 2: Weil Innovation von Facebook ist seit Jahren nicht mehr da.

00:32:58: Speaker 2: Also die haben Instagram gekauft,

00:33:00: Speaker 2: die haben die Funktion von TikTok kopiert.

00:33:02: Speaker 2: Also weißt du, was ich meine?

00:33:02: Speaker 2: Ich bin jetzt auch Nutzer und ich finde das auch,

00:33:05: Speaker 2: die werden jetzt nicht aussterben wie das Fernsehen.

00:33:08: Speaker 2: Aber, also zumindest noch nicht, aber es wird dauern.

00:33:10: Speaker 2: Aber du weißt, was ich meine?

00:33:11: Speaker 2: Und dann integrieren sie mit Journey

00:33:14: Speaker 2: und dann wird es noch eine AI-Slop.

00:33:15: Speaker 2: Dann ist eigentlich nur AI-Drecks-Content.

00:33:18: Speaker 3: Dann gibt es noch Vibes.

00:33:21: Speaker 2: Ja, Vibes,

00:33:22: Speaker 2: dann Threads, Threads steigt.

00:33:23: Speaker 2: Ich glaube ja gar keine Zahlen mehr. Also alles, was da steht,

00:33:25: Speaker 2: wir wachsen, wachsen, alle wachsen immer.

00:33:27: Speaker 2: Jeder wächst immer.

00:33:29: Speaker 2: Wer zur Hölle nutzt das Threads?

00:33:31: Speaker 2: Jetzt mal ganz ehrlich,

00:33:32: Speaker 2: alle gehen von X weg.

00:33:34: Speaker 2: Wegen Elon Musk, wir müssen X boykottieren.

00:33:36: Speaker 2: Du hängst sogar auch noch auf X ab,

00:33:38: Speaker 2: weil du dich dabei Free-Pick beschwerst

00:33:41: Speaker 2: bei irgendwelchen Tools, warum die funktionieren.

00:33:43: Speaker 2: Also du weißt, was ich meine.

00:33:45: Speaker 2: Ich glaube,

00:33:47: Speaker 2: wenn Zuckerberg sich nicht umschaut,

00:33:49: Speaker 2: Alter, nicht, dass das jetzt zugrunde

00:33:51: Speaker 2: gehen würde, so wie Blackberry oder wie

00:33:53: Speaker 2: irgendwelche großen Firmen, die es verschlafen haben.

00:33:56: Speaker 2: Aber ob sich das

00:33:57: Speaker 2: rechnet, wie viel Geld die da

00:33:59: Speaker 2: ausgeben und verbrennen.

00:34:01: Speaker 2: Gerade bis teilen und so weiter.

00:34:03: Speaker 2: Ja, und überleg mal, wenn die Qualität der Plattform

00:34:05: Speaker 2: schlechter wird, ist mal uns als Werber.

00:34:06: Speaker 2: Also es wird ja Alternativen geben. Es wird auch bei

00:34:08: Speaker 2: JGPT meiner Meinung nach irgendwann mal ein Bidding

00:34:11: Speaker 2: geben, hundertprozentig,

00:34:13: Speaker 2: wird das kommen müssen.

00:34:15: Speaker 2: Ja, aber dann gehen die Werber dahin, wo die Leute sind.

00:34:17: Speaker 2: Und wenn die Qualität der Plattform mal schlechter wird,

00:34:19: Speaker 2: weil halt nur noch Bots oder Hass oder

00:34:21: Speaker 2: Wutbürger oder was weiß ich was,

00:34:23: Speaker 2: Aluhutträger in den Kommentarspalten,

00:34:25: Speaker 2: Leute die ganze Zeit diffamieren,

00:34:27: Speaker 2: also es ist ja frustrierend. Also wenn du jetzt,

00:34:29: Speaker 2: mach mal, geh mal auf Insta, geh mal unter die

00:34:31: Speaker 2: Tagesschau, geh mal unter die Öffentlich-Rechtlichen, was

00:34:33: Speaker 2: da abgeht. Das ist so krass.

00:34:35: Speaker 3: Ich nutze

00:34:36: Speaker 3: keine Meta-Plattform aktiv, weil ich genau

00:34:39: Speaker 3: diesen Punkt halt auch total

00:34:41: Speaker 3: habe, weil ich brauche das nicht, diesen negativen

00:34:43: Speaker 3: Einfluss. Ja, aber da denke ich mir,

00:34:45: Speaker 2: dann gib doch lieber Geld aus, anstatt dass du

00:34:47: Speaker 2: irgendwelche Brillen baust, gib doch lieber Geld

00:34:49: Speaker 2: auf, dass deine Plattform eine geile

00:34:51: Speaker 2: Plattform ist, wo die Qualität

00:34:53: Speaker 2: der User und der Inhalte gut

00:34:55: Speaker 2: ist, damit du lieber noch mehr Werber

00:34:58: Speaker 2: reinkriegst und baue

00:34:59: Speaker 2: lieber so ein Werbemechanismus. Von mir ist, kannst du auch

00:35:01: Speaker 2: die KI-Plattform bauen, die dann irgendwie die

00:35:03: Speaker 2: kleinen Mittelständler reinzieht,

00:35:05: Speaker 2: aber stelle ich doch nicht hin und

00:35:07: Speaker 2: labere so ein Bullshit und sage, ja, wir machen

00:35:09: Speaker 2: das jetzt so und wir schaffen die

00:35:11: Speaker 2: Agenturen ab oder die Mediadingen.

00:35:13: Speaker 2: Alter, du kannst ja noch nicht mal einen Nazi

00:35:15: Speaker 2: oder einen Rassisten,

00:35:17: Speaker 2: der jemanden beleidigt

00:35:19: Speaker 2: im öffentlichen Raum,

00:35:21: Speaker 2: kannst du noch nicht mal melden.

00:35:22: Speaker 2: Weil jedes Mal, wenn ich irgendjemand gemeldet habe, kam dann

00:35:25: Speaker 2: so, hallo, hallo Nauti,

00:35:27: Speaker 2: ja schön, ja nö,

00:35:29: Speaker 2: für uns hat der nicht gegen die allgemeinen

00:35:31: Speaker 2: Regeln verstoßen. Wo ich mir denke, what the fuck?

00:35:33: Speaker 2: Alter, du wirst Innovationstreiber sein

00:35:36: Speaker 2: und kriegst

00:35:37: Speaker 2: nicht mal hin, irgendwie deine eigene Plattform

00:35:39: Speaker 2: mit AI zu bereinigen. Also, weißt du,

00:35:41: Speaker 2: du könntest ja auch Agents, Controller einbauen.

00:35:43: Speaker 2: Also, das sind so Sachen, wo ich mir denke,

00:35:45: Speaker 2: wow, kein Wunder, dass dann so innovative

00:35:47: Speaker 2: Leute dann irgendwann mal auch gehen.

00:35:49: Speaker 2: Aber er wird schon wissen, dass Sack, was er

00:35:51: Speaker 2: macht. Also, Geld hat er ja genug.

00:35:53: Speaker 3: Ich bin auch gespannt, wie nächstes Jahr da bei Meta

00:35:55: Speaker 3: aussieht und wie auch die Lama-Modelle sich entwickeln.

00:35:57: Speaker 2: Aber lass uns mal ein bisschen weiterziehen.

00:35:59: Speaker 2: Sorry.

00:36:01: Speaker 2: Ja, das war ein langer Rant, aber der musste jetzt

00:36:03: Speaker 2: sein, weil mich das einfach nervt. Entschuldigung.

00:36:04: Speaker 3: Dafür ist es ja auch deine ehrliche Meinung.

00:36:06: Speaker 3: Und das ist ja auch wichtig im Podcast.

00:36:09: Speaker 3: mal kundzutun.

00:36:11: Speaker 3: Lass uns noch mal ein bisschen weitergucken.

00:36:13: Speaker 3: Was haben wir denn noch hier so mit dabei?

00:36:18: Speaker 2: Du hattest ein spannendes Thema,

00:36:21: Speaker 2: und zwar, wir hatten das Thema Energie und Strom.

00:36:23: Speaker 2: Da haben wir ja auch schon viel drüber geredet im Podcast,

00:36:25: Speaker 2: seit wir das machen.

00:36:27: Speaker 2: Da hattest du eine spannende Meldung mit dabei.

00:36:29: Speaker 3: Schwieriges Thema, finde ich, auch generell.

00:36:31: Speaker 3: Also natürlich sprechen wir über Videomodelle,

00:36:34: Speaker 3: Bildmodelle und Textmodelle

00:36:35: Speaker 3: und die brauchen natürlich super viel Ressourcen.

00:36:37: Speaker 3: Es gibt Projekte wie Stargate, 500 Milliarden, wo Rechenzentren,

00:36:42: Speaker 3: sondern eher Rechenstädte aufgebaut werden, um da irgendwie zu skalieren ohne Ende.

00:36:48: Speaker 3: Und gleichzeitig wächst aber auch in Ländern wie zum Beispiel Chile oder Brasilien

00:36:51: Speaker 3: oder besonders in Lateinamerika und Umgebung der Widerstand auch in der Öffentlichkeit

00:36:57: Speaker 3: gegen die Datenzentren, weil es wohl auch viele geheime Absprachen gab,

00:37:01: Speaker 3: zwischen Regierung und Tech-Unternehmen, Mangel der Transparenz da auch einfach gab

00:37:05: Speaker 3: und vielleicht in den Ländern auch der Ressourcenmangel

00:37:08: Speaker 3: noch viel, viel stärker auf das Leben der einzelnen Personen Einfluss hat.

00:37:13: Speaker 3: Und da bin ich gespannt,

00:37:15: Speaker 3: ob es da auch in Europa noch mehr lauter Stimmen gibt.

00:37:18: Speaker 3: Ich finde es selber persönlich für mich super schwierig,

00:37:20: Speaker 3: bewusst mit KI im Bereich Ressourcenverbrauch umzugehen,

00:37:25: Speaker 3: auch weil es einfach schwierig ist zu messen.

00:37:27: Speaker 3: Wir googeln auch jeden Tag,

00:37:28: Speaker 3: googeln verbraucht auch Energie.

00:37:30: Speaker 3: KI-Video ist natürlich ein Vielfaches im Vergleich zu einer Google-Suche.

00:37:33: Speaker 3: Trotzdem machen wir es und spielen wir damit rum.

00:37:36: Speaker 3: finde ich persönlich super schwierig, aber ich glaube, dass

00:37:38: Speaker 3: das auch ein Thema wird, was

00:37:39: Speaker 3: in Zukunft noch weitere Relevanz bekommt und dann ist

00:37:42: Speaker 3: halt die Frage, löst KI

00:37:44: Speaker 3: irgendwann das Ressourcenproblem,

00:37:46: Speaker 3: weil KI so smart ist

00:37:48: Speaker 3: und irgendeine Lösung findet oder

00:37:50: Speaker 3: ist das eher was, wo das bis zum

00:37:52: Speaker 3: Unendlichkeit skaliert und einfach uns die

00:37:53: Speaker 3: kompletten Ressourcen klaut?

00:37:55: Speaker 2: Ja, ich glaube, dass das eben auch

00:37:57: Speaker 2: das Thema wird, wie weit KI sozusagen

00:37:59: Speaker 2: auch nicht platzen wird oder nicht, weil

00:38:01: Speaker 2: die Wachstumsstrategie, nehmen wir mal OpenAI,

00:38:04: Speaker 2: wie viel Atomkraftwerke bräuchten, die könnten die gar nicht bauen.

00:38:06: Speaker 2: Deswegen glaube ich, dass eher das Thema,

00:38:08: Speaker 2: und wir haben jetzt, du hast es gerade hier in der Meldung,

00:38:10: Speaker 2: Chile, Brasilien, Datencenter,

00:38:12: Speaker 2: da gibt es ja auch, sage ich mal, auch Menschen in den USA,

00:38:16: Speaker 2: die dagegen sind, der eine Datencenter in den USA,

00:38:19: Speaker 2: die ja, habe ich auch eine spannende Art,

00:38:20: Speaker 2: der Dokum, muss ich dann auch mal in den Shownotes verlinken zum Thema.

00:38:24: Speaker 2: Was ich meine ist, das ist ja eher interessant,

00:38:26: Speaker 2: was ist eigentlich mit dem arabischen Raum?

00:38:28: Speaker 2: Also was ist mit den ganzen Solar-Themen?

00:38:30: Speaker 2: Was ist da mit dem Thema?

00:38:32: Speaker 2: Also da würde ich sagen, ich glaube, die KI gewinnt dann da, wo die Energie erneuerbar ist und wo sozusagen durch Solarfarmen, vor allem im arabischen Raum, in der Wüste, die gar keiner auf dem Zettel hat.

00:38:45: Speaker 2: Und wenn ich jetzt sozusagen dahingehend einer von den großen Entscheider wäre, dann würde ich auf jeden Fall mal mit den Emiraten reden und mit denen, weil die haben nämlich natürlich Fläche und Sonne.

00:38:56: Speaker 2: Und eigentlich könnte das eben eine positive Lösung sein,

00:39:00: Speaker 2: weil die Alternativen sind ja, wie wir es gerade erwähnt haben, Atom.

00:39:04: Speaker 3: Oder, und das ist eine gute Überleitung,

00:39:08: Speaker 3: vielleicht sind es auch Sachen, an die wir gerade aktuell noch nicht denken.

00:39:11: Speaker 3: Denn Google hat im Research-Blog geschrieben,

00:39:15: Speaker 3: ich zitiere mal den Titel,

00:39:17: Speaker 3: Exploring a Space-Based Scalable AI Infrastructure System Design.

00:39:23: Speaker 3: Also vielleicht packen wir die AI-Rechenzentren einfach ins All,

00:39:26: Speaker 3: weil da ist ja kalt.

00:39:27: Speaker 3: Da brauchen wir ja nicht über Kühlung nachzudenken und Wasserverbrauch.

00:39:30: Speaker 3: Und das ist über das Project Suncatcher ein Projekt,

00:39:35: Speaker 3: was gerade wohl in Entwicklung oder in Forschung ist,

00:39:39: Speaker 3: um auch zu schauen, kriegen wir das denn hin,

00:39:41: Speaker 3: dass Satelliten quasi Rechenzentren so ein bisschen ersetzen

00:39:45: Speaker 3: und da halt auch AI-Infrastruktur aufbauen, was halt crazy wäre.

00:39:50: Speaker 3: Aber klar, du hast natürlich andere Probleme da oben mit Weltraumstrahlung etc.,

00:39:53: Speaker 3: mit krasser Kälte umzugehen,

00:39:55: Speaker 3: aber Kühlung ist halt kein Problem da oben.

00:39:58: Speaker 2: Kühlung ist kein Problem

00:39:59: Speaker 2: und du hast halt dann noch so ein Thema

00:40:01: Speaker 2: wie in diesen Sci-Fi-Filmen, wo Weltraum

00:40:03: Speaker 2: schraubt dann.

00:40:04: Speaker 2: Ich stelle mir das dann so vor, dass du dann irgendwie nur noch

00:40:07: Speaker 2: diese Satelliten haben.

00:40:08: Speaker 3: Ich stelle mir halt auch die Frage,

00:40:11: Speaker 3: du sitzt dann unten auf der Erde

00:40:13: Speaker 3: und dann ist oben irgendwas kaputt.

00:40:15: Speaker 3: Dann sind irgendwie 20 GPUs ausgefallen

00:40:17: Speaker 3: oder wahrscheinlich ein bisschen mehr.

00:40:19: Speaker 3: Was machst du denn da?

00:40:20: Speaker 2: Ja, dann musst du halt schnell hochfahren, Jens. Mach halt.

00:40:22: Speaker 3: Ja, mal eben mal kurz hoch.

00:40:23: Speaker 3: okay, ich bin in, keine Ahnung, wie viele Tagen da

00:40:26: Speaker 3: und dann wechsle ich Dinge aus bis dahin

00:40:27: Speaker 3: und dann auf der Rückfahrt oder im Rückflug,

00:40:29: Speaker 3: besser gesagt, gehen wieder welche da kaputt.

00:40:32: Speaker 2: Das ist natürlich krass auskannend.

00:40:33: Speaker 2: Das macht ja der Tesla-Roboter dann.

00:40:35: Speaker 3: Stimmt, stimmt. Ja, wer weiß.

00:40:38: Speaker 3: Das wäre smart.

00:40:39: Speaker 3: Aber wenn der kaputt ist,

00:40:42: Speaker 3: das ist scheiße.

00:40:43: Speaker 2: Einfach so ein Roboter im Google Office

00:40:46: Speaker 3: im All, auf dem Mond.

00:40:47: Speaker 3: Dann hast du den Weg vielleicht kürzer dahin.

00:40:49: Speaker 2: Wir könnten ja, weil du vorhin gerade die Intro

00:40:51: Speaker 2: gemacht hast, weil wir sind auch der Spaßgast und da nicht so

00:40:53: Speaker 2: KI-Podcasts und wir haben ja sozusagen diese

00:40:55: Speaker 2: Ost-West-Gefälle. Wir könnten ja sozusagen

00:40:58: Speaker 2: unsere Genossen im Osten

00:41:00: Speaker 2: fragen, ob sie so ein Space-Shuttle-

00:41:02: Speaker 2: Programm wieder aufmachen, dann können die das

00:41:04: Speaker 3: doch machen. Finde ich gut, dann in Europa

00:41:05: Speaker 3: auch wieder was zu melden.

00:41:11: Speaker 3: Also

00:41:11: Speaker 3: auf jeden Fall spannend.

00:41:12: Speaker 3: Aber was auch spannend

00:41:14: Speaker 3: ist, auch das ist ein Thema von Google,

00:41:16: Speaker 3: was mich auch

00:41:18: Speaker 3: überrascht hat, aber eine sehr interessante

00:41:20: Speaker 3: Perspektive aufgemacht hat.

00:41:21: Speaker 3: Wir reden natürlich über erstmal viel gute KI.

00:41:24: Speaker 3: Aber die Cyberkriminellen sind natürlich auch nicht doof

00:41:27: Speaker 3: und finden natürlich auch KI super, super geil,

00:41:29: Speaker 3: um noch mehr Blödsinn zu machen.

00:41:31: Speaker 3: Abgesehen von Phishing und Co.

00:41:33: Speaker 3: hat Google auch ein System oder ein Chartprojekt im Web gefunden.

00:41:40: Speaker 3: Das nennt sich PromptFlux.

00:41:42: Speaker 3: Und was hier passiert, gerade bei Viren und Toyane,

00:41:46: Speaker 3: ist ja so, der Quellcode von den Toyanern wird ja dann erkannt.

00:41:50: Speaker 3: Die Virensysteme catchen das und dann funktioniert es nicht mehr.

00:41:53: Speaker 3: Da muss man jetzt als Böser was Neues machen.

00:41:55: Speaker 3: Und das haben wir jetzt quasi über Gemini so gebaut,

00:42:00: Speaker 3: dass es ein Shard-Software gibt,

00:42:02: Speaker 3: die alle paar Stunden ihren Quellcode einfach umändert mit KI,

00:42:06: Speaker 3: weil KI jetzt super gut im Coding wird

00:42:08: Speaker 3: und dann immer weniger erkannt wird.

00:42:11: Speaker 3: Fand ich spannend, dass das natürlich auch,

00:42:12: Speaker 3: das verdrängt man vielleicht mal so ein bisschen,

00:42:14: Speaker 3: dass natürlich Cyber-Kriminelle auch sagen,

00:42:16: Speaker 3: boah geil, KI und Innovation und Fake-Bilder und so weiter.

00:42:19: Speaker 3: Und da, glaube ich, auch viel Scheiß mit passiert.

00:42:22: Speaker 3: Und das fand ich einen interessanten Part,

00:42:23: Speaker 3: dass die Schadsoftware mittlerweile autonom wird.

00:42:29: Speaker 2: Ja, und vor allem halt auch,

00:42:30: Speaker 2: dass wahrscheinlich auch eine KI-Kompetenz

00:42:32: Speaker 2: eben bei den ganzen Kriminalpolizei

00:42:35: Speaker 2: oder bei den ganzen Behörden drin muss.

00:42:38: Speaker 2: Und dagegen vor.

00:42:40: Speaker 2: Also da kann ja die Bundeswehr und Polizei,

00:42:42: Speaker 2: Bundespolizei nicht mal nochmal für Coda

00:42:45: Speaker 2: irgendwie ihre Out-of-Home-Kampagne machen,

00:42:47: Speaker 2: sondern mal für KI-Experten und Expertinnen,

00:42:49: Speaker 2: weil das wird sicherlich wichtig werden.

00:42:51: Speaker 3: Ich glaube, das wird da viel im Cyber-Bereich

00:42:54: Speaker 3: schon hoffentlich mitgedacht.

00:42:56: Speaker 3: Aber natürlich, klar, es sind neue Herausforderungen,

00:42:58: Speaker 3: die weit weg davon gehen,

00:42:59: Speaker 3: einfach nur so ein bisschen Quellcode zu analysieren.

00:43:03: Speaker 3: Mal gucken.

00:43:04: Speaker 2: Ich habe noch eine Sache mit,

00:43:07: Speaker 2: bevor wir zu deinem Use-Case kommen,

00:43:10: Speaker 2: der ziemlich geil ist.

00:43:12: Speaker 2: Und zwar habe ich noch was dabei.

00:43:14: Speaker 2: Es ist schon jetzt, wie lange?

00:43:15: Speaker 2: Eineinhalb, zwei Wochen her.

00:43:17: Speaker 2: Ewig.

00:43:18: Speaker 2: Ewig her.

00:43:19: Speaker 2: und wir haben ja unser Thema, du hast ja gerade gesagt, Cyberkriminalität, KI und Innovation,

00:43:24: Speaker 2: aber seien wir mal ehrlich, KI macht auf 45%, 40 bis 45% eh nur Fehler.

00:43:30: Speaker 2: Stimmt.

00:43:31: Speaker 2: Das ist also die Headline, die in den öffentlich-rechtlichen, aber nicht nur in den öffentlich-rechtlichen,

00:43:35: Speaker 2: sondern in allen Medienhäusern, Headline, Clickbaiting-Headlines, da funktioniert SEO immer noch gut,

00:43:42: Speaker 2: durchgegangen ist und zwar, was hat das auf sich?

00:43:44: Speaker 2: Ich glaube, ihr habt das alles mitbekommen da draußen, die uns zuhören.

00:43:47: Speaker 2: Und zwar gab es eine sehr, sehr renommierte, würde ich jetzt sagen, Studie von 64, 66, muss man mal genau die Zahl schauen, Sendern, geleitet unter dem Deckmantel der BBC, bei dem sozusagen die Verlässlichkeit von Quellen und die Antwortraten von KI-Modellen getestet worden sind im journalistischen Aspekt.

00:44:09: Speaker 2: Und ja, die Headlines, die eben die gerade eben zitierten Medienhäuser genannt haben, war irgendwie die KI macht 40% Fehler, wusste nicht, wer der Papst ist und so weiter.

00:44:22: Speaker 2: Es gab natürlich ein großes Raunen auf Social Media. Die Kommentarspalte hier war auch wieder witzig.

00:44:27: Speaker 2: Die KI-Gegner haben sich natürlich alle gefreut. Yeah, wir haben es immer gesagt, es ist alles scheiße und wer die KI nutzt, ist selber schuld und bla bla bla.

00:44:37: Speaker 2: und dann ich natürlich

00:44:40: Speaker 2: hold my beer,

00:44:41: Speaker 2: habe natürlich mir die Studie gezogen, habe sie dir

00:44:43: Speaker 2: witzigerweise auch auf WhatsApp direkt weitergeleitet

00:44:46: Speaker 2: und habe sie mir als erstes

00:44:48: Speaker 2: Mal im Workflow

00:44:49: Speaker 2: bei Notebook LLM mal schön als

00:44:52: Speaker 2: Audio zusammenfassen lassen,

00:44:53: Speaker 2: um sie mir dann nochmal durchzulesen

00:44:55: Speaker 2: und bin bei dem Zusammenfassen des

00:44:57: Speaker 2: Audios, war ich schon so ein bisschen stutzig.

00:45:00: Speaker 2: Ich so, hm.

00:45:02: Speaker 3: Vielleicht hat die Audio-Zusammenfassung

00:45:04: Speaker 3: ja auch 45% falsch gelegen, Max.

00:45:06: Speaker 2: Ja, kann aus.

00:45:07: Speaker 2: sein. Ich war auf jeden Fall

00:45:09: Speaker 2: stutzig bei dem Thema, also bei dem

00:45:11: Speaker 2: Durchlesen dieser Studie sind mir direkt

00:45:13: Speaker 2: Fragen in den Kopf gegangen.

00:45:15: Speaker 2: Erstens,

00:45:18: Speaker 2: welche

00:45:19: Speaker 2: Skillset hatte eigentlich derjenige, der

00:45:21: Speaker 2: diese Maschinen bedient hat?

00:45:23: Speaker 2: Weil, wir wissen ja, und das haben wir alle gelernt,

00:45:25: Speaker 2: Garbage in, Garbage out.

00:45:28: Speaker 2: Bedeutet,

00:45:29: Speaker 2: kommt die Scheiße, kommt Scheiße raus.

00:45:31: Speaker 2: Dann das zweite Thema,

00:45:33: Speaker 2: was mich auch direkt gefragt hat,

00:45:34: Speaker 2: Moment mal, Quellenverlässlichkeit

00:45:36: Speaker 2: Anlässlichkeit und Antwortraten. Hä? Wann waren das? Also wann haben die denn das gemacht? Weil eine Online-Suche, Deep Research bei den Modellen wie Gemini, was dort getestet wurde, JetGPT, ist doch eigentlich da.

00:45:50: Speaker 2: Und so war es so ein bisschen das Thema, dass ich dann am Ende, die Studie hat natürlich zu seinem Daseinsbericht um Gottes Willen und suggeriert natürlich auch, zeigt auch wie öffentlich-rechtliche oder Medienhäuser auch Angst haben meiner Meinung nach von KI, weil natürlich sie sozusagen die Hüter des heiligen Grals der journalistischen Richtigkeit inne hatten.

00:46:16: Speaker 2: war es auch so, dass es eher gezeigt hat,

00:46:17: Speaker 2: wie schlecht die eigentlich alle prompten können

00:46:19: Speaker 2: und wie schlecht die alle mit KU umgehen.

00:46:21: Speaker 2: Das war dann am Ende meine Quintessenz.

00:46:23: Speaker 2: Weil ich war da schon echt,

00:46:25: Speaker 2: und wenn das die BBC bringt und 60 Länder zusammen

00:46:28: Speaker 2: oder Sender anstalten,

00:46:30: Speaker 2: ja, da eine gute Nacht.

00:46:31: Speaker 2: Also ich war ja wirklich so,

00:46:33: Speaker 2: ich habe dann direkt bei W&V,

00:46:36: Speaker 2: wo ich immer den Newsletter schreiben darf,

00:46:38: Speaker 2: hobbymäßig,

00:46:39: Speaker 2: habe ich direkt einen Artikel darüber geschrieben.

00:46:40: Speaker 2: Und ich habe mir gedacht,

00:46:41: Speaker 2: hey, das kann doch nicht wahr sein.

00:46:43: Speaker 2: Und dann habe ich tatsächlich Zuspruch bekommen,

00:46:45: Speaker 2: auch von vielen KI-Nerds, die auch gesagt haben,

00:46:47: Speaker 2: bei der Durchlesung der Studie war ihnen auch so ein bisschen schummrig,

00:46:51: Speaker 2: weil es irgendwie nicht klar war, was waren die Proben,

00:46:53: Speaker 2: was war die Voraussetzung, welche Funktionen waren eingeschaltet und so weiter.

00:46:57: Speaker 2: Wir wissen ja alle, dass die wichtigste Fähigkeit,

00:47:01: Speaker 2: ich glaube, das hast du auch immer gesagt, ist,

00:47:03: Speaker 2: das Mitdenken und kritisch hinterfragen, egal was wir im Leben machen.

00:47:08: Speaker 2: Und dann zu sagen, ja, die KI macht Fehler, ihr müsst denken,

00:47:12: Speaker 2: ja gut, also danke, dafür brauche ich jetzt keine Studie.

00:47:15: Speaker 2: Also es war schon sehr amüsant, aber du hast sie auch gelesen und hast sie auch analysiert.

00:47:19: Speaker 3: Ja, ich fand vor allen Dingen, was ich ein bisschen kritisch fand, dass gesagt wurde, wenn keine Quelle da ist, dann ist das automatisch ein fehlerhaftes Ergebnis und das halt auch einer der Fehlerfaktoren waren.

00:47:35: Speaker 3: Aber natürlich, je nachdem, was man für ein Modell benutzt hat, was für ein Wissensstand das hat, natürlich auch manchmal gar keine Quelle notwendig ist.

00:47:43: Speaker 3: Aber trotzdem natürlich dann, wenn eine Quelle wegfällt,

00:47:45: Speaker 3: dass es ein Fehler war.

00:47:46: Speaker 3: Das fand ich halt so ein bisschen, weiß nicht,

00:47:49: Speaker 3: nicht so ganz deutlich.

00:47:49: Speaker 3: Und wie du halt sagtest, verschiedene Tools

00:47:51: Speaker 3: haben verschiedene Stärken.

00:47:53: Speaker 3: Was für ein Prompting, was für ein Tool-Usage war überhaupt da drin?

00:47:57: Speaker 3: Auf was für ein Modell?

00:47:58: Speaker 3: Wenn du ein GPT-5-Thinking nutzt,

00:48:01: Speaker 3: hast du nochmal eine andere Durchsicht,

00:48:03: Speaker 3: auch was die Quellennutzung angeht,

00:48:04: Speaker 3: was überhaupt die Tool-Usage angeht,

00:48:06: Speaker 3: was am Ende die Websuche ist.

00:48:08: Speaker 3: Und das fand ich so ein bisschen halt sehr plakativ,

00:48:11: Speaker 3: sehr gut für den Journalismus,

00:48:13: Speaker 3: glaube ich, so eine Meldung.

00:48:15: Speaker 3: Allerdings halt, finde ich,

00:48:17: Speaker 3: fehlt mir da so irgendwie, auch

00:48:18: Speaker 3: obwohl es ein langes PDF war,

00:48:21: Speaker 3: fehlt mir da so die wichtigen Details.

00:48:23: Speaker 3: Aber klar, wie du schon sagtest, ist es halt noch

00:48:25: Speaker 3: so ein bisschen so, hey, wir erzählen jetzt die Wahrheit.

00:48:27: Speaker 3: Und ich glaube, was wir niemals vergessen dürfen

00:48:29: Speaker 3: ist, klar erzählt die KI

00:48:31: Speaker 3: nicht immer die Wahrheit, ganz normal.

00:48:33: Speaker 3: Aber wie viele Webseiten in dieser Welt gibt es,

00:48:35: Speaker 3: die auch nicht die Wahrheit erzählen

00:48:37: Speaker 3: und wo auch Fehler passieren? Ich habe letztes Mal

00:48:38: Speaker 3: einen Artikel in einem sehr, sehr großen Magazin gesehen,

00:48:41: Speaker 3: die auch eigentlich dafür bekannt sind für gute

00:48:42: Speaker 3: Quellen und richtigen Journalismus

00:48:45: Speaker 3: und da sind halt auch

00:48:47: Speaker 3: menschliche Fehler passiert, dass zum Beispiel

00:48:48: Speaker 3: eine Zahl, eigentlich war die

00:48:50: Speaker 3: Hitler mit 39% zu dem Thema

00:48:52: Speaker 3: und in einem anderen

00:48:54: Speaker 3: Part des Artikels stand 30%.

00:48:56: Speaker 3: Das ist einfach menschlich dann auch einfach.

00:48:59: Speaker 3: Das heißt, wir haben auch einfach super viele Sachen, die einfach

00:49:01: Speaker 3: Fehler haben, die aber von Menschen

00:49:02: Speaker 3: kommen und das dürfen wir nicht vergessen.

00:49:04: Speaker 3: Wir dürfen ja nicht sagen, alles ist perfekt.

00:49:07: Speaker 2: Ja, das ist ein wichtiger Punkt.

00:49:09: Speaker 2: Ja, ist auf jeden Fall so und ich

00:49:10: Speaker 2: Aber das ist natürlich die richtige Idee dahinter, dass man kritisch Dinge hinterfrägt und dass man, egal was man für Tools nutzt oder Technologie nutzt, dass man da immer noch, das macht uns ja Menschen aus, die Intelligenz des Menschen, dass man dann Dinge vielleicht auch hinterfrägt und nochmal beleuchtet und nochmal die Quellen verifiziert.

00:49:30: Speaker 2: Aber halt, dass dann halt sozusagen auch diejenigen, die eigentlich für Journalismus stehen, sich den einfachen Narrativ annehmen und dann einfach sagen, ja, per se falsch und Ding.

00:49:41: Speaker 2: Und das finde ich halt dann richtig schlecht und spielt wieder diesen ganzen Aluhutträgern in die Karten, die sagen, Lüge und Presse.

00:49:47: Speaker 2: Wo ich dann auch dachte so, nein. Oh Mann, echt. Aber egal, wir haben davon was gelernt. Wir verlinken auch die Studie, kann sich jeder auch an durchlesen, eine eigene Meinung bilden.

00:49:58: Speaker 2: Wir sind ja der Podcast, der alle viele Meinungen zulässt.

00:50:01: Speaker 2: Und jetzt kommen wir zum Use Case.

00:50:03: Speaker 2: Weil sonst haben wir schon wieder lange auf der Uhr gehabt hier und viele Sachen besprochen.

00:50:07: Speaker 2: Du hast einen spannenden Use Case dabei.

00:50:10: Speaker 2: Use Case der Woche.

00:50:13: Speaker 3: Ich habe meiner Meinung nach auf jeden Fall einen spannenden Use Case dabei.

00:50:18: Speaker 3: Und zwar haben wir, glaube ich, die letzten Monate immer mal wieder gehört,

00:50:22: Speaker 3: wir haben KI-Mitarbeiter bei uns.

00:50:24: Speaker 3: Und dann gab es ganz viele Content Pieces und Webinare und dies und jenes.

00:50:28: Speaker 3: dann guckt man sich an und da ist ja auch schon

00:50:30: Speaker 3: hier und da mal die Erfahrung gemacht, am Ende war es ein Custom

00:50:32: Speaker 3: GPT und dann aber ein riesengroßes

00:50:34: Speaker 3: Storyline drumherum aufgebaut, KI-Mitarbeiter

00:50:36: Speaker 3: bla bla bla und es ging mir auch so ein bisschen

00:50:38: Speaker 3: um den Sack, nachdem wir uns ja auch ein bisschen

00:50:40: Speaker 3: ausgetauscht und rumgerantet haben

00:50:43: Speaker 3: und

00:50:44: Speaker 3: ich dachte, wie kann ich das denn noch ein bisschen weiterführen

00:50:46: Speaker 3: und ich habe tatsächlich mit Cursor

00:50:48: Speaker 3: mein

00:50:50: Speaker 3: Lieblings-KI-Coding-Tool

00:50:52: Speaker 3: mittlerweile, einfach mal

00:50:54: Speaker 3: gucken, kann ich mir denn Slack-Agents

00:50:56: Speaker 3: oder Slack-Mitarbeiter bauen

00:50:58: Speaker 3: und habe das tatsächlich hinbekommen.

00:51:00: Speaker 3: Und was jetzt ist, ich habe in Slack fünf aktuell Mitarbeiter,

00:51:05: Speaker 3: die verschiedene Meinungen haben.

00:51:07: Speaker 3: Der eine ist der Brand Guideline-Tybi,

00:51:08: Speaker 3: der andere ist unsere Zielgruppe bei Snipki,

00:51:11: Speaker 3: der andere kann Bilder generieren.

00:51:14: Speaker 3: Aber, und das ist das Geile,

00:51:15: Speaker 3: man kann sie halt in Slack ansprechen wie echte Menschen

00:51:19: Speaker 3: und sie antworten halt mit dem Kontext.

00:51:21: Speaker 3: Und zwar, und das war mir ganz wichtig,

00:51:24: Speaker 3: nicht mit dem Kontext deiner Anfrage nur,

00:51:26: Speaker 3: sondern mit dem kompletten Kontext aus diesem Thread,

00:51:29: Speaker 3: weil du hast aber jetzt diese Thread-Logik.

00:51:31: Speaker 3: Das heißt, man kann wirklich diese Kombination,

00:51:33: Speaker 3: und das fand ich so ein bisschen schon fast magisch,

00:51:36: Speaker 3: du sprichst halt mit vielleicht ein paar Menschen hin und her,

00:51:40: Speaker 3: Ideen, Brainstorming, und dann sagst du,

00:51:43: Speaker 3: bei uns heißt der Brand to be Brandon, also Brand on,

00:51:47: Speaker 3: und habe gesagt, hier, wie findest du das denn?

00:51:50: Speaker 3: Und das aber halt mit dem LLM hinten dran,

00:51:54: Speaker 3: oder mit verschiedenen APIs,

00:51:56: Speaker 3: Und das war krass und das hat sich für mich wirklich so angefühlt,

00:51:58: Speaker 3: wie krass ich arbeite hier mit anderen,

00:52:03: Speaker 3: mit KI-Systemen wirklich zusammen

00:52:05: Speaker 3: und springe nicht irgendwie in den Custom GPT rein.

00:52:07: Speaker 3: Und das war auf jeden Fall mein Use Case.

00:52:09: Speaker 3: Ich bin jetzt gerade dabei, das noch ein bisschen weiter auszubauen

00:52:11: Speaker 3: und nutze es, dass ich immer häufiger in Slack selber,

00:52:13: Speaker 3: dass ich sage, ich habe hier so ein bisschen Brainstorming gemacht,

00:52:15: Speaker 3: auch untereinander und dann gesagt, guck mal hier,

00:52:18: Speaker 3: schieb den nochmal rein. Sehr, sehr krass.

00:52:22: Speaker 2: Mega. Und mein Use Case war mit dem Spaces Workflow

00:52:26: Speaker 2: für E-Commerce-Kunden über 50 Creatives auf einmal,

00:52:30: Speaker 2: Iterationen zu generieren für Nahrungsergänzungsmittel.

00:52:34: Speaker 2: Und es hat super gut funktioniert und mein Team hat das richtig gut angenommen

00:52:37: Speaker 2: und hat da irgendwie die, sag ich mal, Iterationsgeschwindigkeit,

00:52:41: Speaker 2: was wir dann dem Kunden rübergeworfen haben, irgendwie um 50 Prozent verbessert.

00:52:46: Speaker 2: Und das war schon echt mindblowing.

00:52:48: Speaker 2: Gerade wenn man sozusagen Statics macht, wie gesagt, Vorsicht bitte bei Generierung,

00:52:53: Speaker 2: gerade auch von Bewegtbild, aber mit dem Static-Themen

00:52:56: Speaker 2: war halt ein Seatream, Nano-Banana,

00:52:57: Speaker 2: wir hatten es dann in Abwechslung drin, Unlimited,

00:52:59: Speaker 2: das heißt, wir konnten hacken, was das Zeug hält

00:53:02: Speaker 2: und haben da deutlich schnellere Ergebnisse

00:53:04: Speaker 2: erzielt, ja, das war super gut.

00:53:05: Speaker 3: Geil, cool, Max, mein Lieber,

00:53:07: Speaker 3: da haben wir wieder eine wunderschöne Folge

00:53:10: Speaker 3: rausgehauen, danke dir

00:53:11: Speaker 3: für deine Zeit.

00:53:14: Speaker 3: Dir auch, mein Lieber.

00:53:15: Speaker 3: Wir hören uns bei der nächsten Folge

00:53:17: Speaker 3: und wir hören uns sowieso.

00:53:19: Speaker 3: Also, danke fürs Zuhören, alle.

00:53:21: Speaker 3: Danke fürs Zuhören.

00:53:23: Speaker 3: immer schön bewerten.

00:53:24: Speaker 3: Weiterempfehlen

00:53:25: Speaker 3: und wir freuen uns immer

00:53:26: Speaker 3: über Feedback, Themen,

00:53:27: Speaker 3: Gäste, Wünsche etc.

00:53:29: Speaker 3: Und genau, Max, mein Lieber,

00:53:30: Speaker 3: wir hören uns bei der nächsten Folge.

00:53:32: Speaker 2: Genau, danke euch

00:53:33: Speaker 2: und immer schön kritisch bleiben,

00:53:34: Speaker 2: haben wir gelernt.

00:53:35: Speaker 2: Liebe Grüße und bis bald,

00:53:36: Speaker 2: meine Lieben.

00:53:36: Speaker 2: Bis dann.

00:54:06: Speaker 2: you

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.