programmier.bar – der Podcast für App- und Webentwicklung
Die programmier.bar lädt regelmäßig spannende Gäste aus der Welt der App- und Webentwicklung zum Gespräch ein. Es geht um neue Technologien, unsere liebsten Tools und unsere Erfahrungen aus dem Entwickler-Alltag mit all seinen Problemen und Lösungswegen.
Euer Input ist uns wichtig! Schreibt uns eure Themenwünsche und Feedback per Mail an podcast@programmier.bar oder auf Discord (https://discord.gg/SvkGpjxSMe), LinkedIn (@programmier.bar), Bluesky (@programmier.bar), Instagram (@programmier.bar) oder Mastodon (@podcast@programmier.bar).
Wir sind Full-Stack-Spieleentwickler bekannter Apps wie 4 Bilder 1 Wort, Quiz Planet und Word Blitz. https://www.programmier.bar/impressum
programmier.bar – der Podcast für App- und Webentwicklung
News AI 13/26: AI Studio Fullstack // Composer 2 // AMIE & Yann LeCun
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Wie hat dir die Folge gefallen?
Gut 👍
Schlecht 👎
(Keine Anmeldung erforderlich)
Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video.
Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar
In der Folge AI 13/26 begrüßt euch Dennis gemeinsam mit Philipp, um über die rasanten Entwicklungen der letzten Woche zu sprechen. Den Anfang macht das Update für Google AI Studio. Die Plattform entwickelt sich immer mehr zum ernsthaften Konkurrenten für etablierte App-Builder. Mit neuem Fullstack-Support für Next.js und Angular sowie einer tiefen Firebase-Integration könnt ihr jetzt Datenbanken und Authentifizierung direkt per Prompt einbinden. Besonders spannend: In AI Studio kommt nun derselbe Agent zum Einsatz, den ihr vielleicht schon von Anti-Gravity kennt, was das „Vibe Coding“ auf ein neues Level hebt. Probiert es am besten direkt im AI Studio aus.
Ein weiteres Highlight ist der Release von Composer 2 durch das Team von Cursor. Die beliebte IDE setzt jetzt auf ein stark optimiertes Modell, das auf Kimi 2.5 basiert. In den Benchmarks schlägt es sich beachtlich gegen Schwergewichte wie Codex 5.4 oder Opus 4.6, punktet aber vor allem durch eine enorme Geschwindigkeit von bis zu 200 Token pro Sekunde und einen unschlagbar günstigen Preis. Warum die Kommunikation rund um das zugrunde liegende Modell anfangs für Verwirrung sorgte und was das für eure tägliche Arbeit im Editor bedeutet, erfahrt ihr im Blogpost von Cursor.
Große Wellen schlägt auch die Neugründung von Yann LeCun: AMI (Advanced Machine Intelligence). Das neue Research Lab hat bereits über eine Milliarde US-Dollar eingesammelt, um eine KI zu entwickeln, die die physische Welt durch sogenannte World Models versteht. Damit distanziert sich LeCun erneut vom reinen Next-Token-Prediction-Ansatz klassischer LLMs. Besonders erfreulich für den Standort Europa: Die Büros befinden sich in Paris und Zürich. Schaut euch die Vision hinter dem Projekt auf amilabs.xyz an.
Zum Abschluss werfen wir einen Blick auf die strategischen Übernahmen der großen Player. Während OpenAI sich das Team hinter Astral (bekannt für die Python-Tools uv und ruff) gesichert hat, um die Infrastruktur rund um Python zu stärken, baut Anthropic die Funktionen von Claude weiter aus. Mit Claude Dispatch könnt ihr eurem Rechner nun von überall aus Aufgaben zuweisen. Details dazu findet ihr im Hilfe-Center von Anthropic. Wir diskutieren, wie diese Integrationen die Art und Weise verändern, wie wir Tools und Agenten im Alltag steuern.
Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar
Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.
Hallo und herzlich willkommen zu einer neuen programmierbaren News-Folge. AI 1326 sind wir mittlerweile angekommen. Wir reden heute über Composer 2, ein neues Coding-Modell und Neuerungen in AI Studio und einem Startup, das sich Ami nennt. Und ich bin Dennis Becker und bei mir heute ist Der Fabi. Ah, nee, warte mal, der Philipp. Sehr gut. Heute ohne Fabi. Heute ohne Fabi, liebe Grüße an ihn, der frecherweise im Urlaub ist, kann man eigentlich sagen. Wir haben hier bei Lotum eigentlich heute unsere VGI-Woche, was wir einmal im Quartal haben, wo ein Urlaubsverbot ist. Und er hat sich schon offiziell an den Pranger gestellt in einem All Hands-Meeting und hat gesagt, es tut mir sehr leid, er hat es komplett verbucht. Und ja, deswegen darf er heute im Urlaub sein und ich glaube, Skifahren macht er. Juti, dann starten wir nochmal rein in AI Studio. Bin gespannt, was du sagst. Während, ich habe eine Minute vor unserer Aufnahme einen Prompt da reingestellt. Und ich kann ein paar lieber gucken, was damit passiert, aber erzähl dir erst mal, was da Neues gibt.
SPEAKER_01Genau, also AI Studio ist ja mehr oder weniger unsere Developer-Plattform für die Gemini API, wo man einen Playground hatte. Und schon ganz lange hat man so dieses Bild, den BuildTub gehabt. Und der Buildhub war zum Vibecoden. Also man konnte mit einem Prompt super easy eine React-App bauen, was halt Gemini im Hintergrund genutzt hat. Und es gibt ja viele, sag ich mal, solche Vibecoding-Apps oder App-Builder, Lovable, Bold, etliche, sag ich mal. Und AI Studio langsam aber sicher holt ein bisschen auf, was die Features angeht. Und zwar gibt es jetzt mehr oder weniger den Full-Stack-Support. Also man hat nicht nur React-Support, sondern man hat jetzt auch Next.js, also Frontend und Backend mehr oder weniger. Angular gibt es auch Support. Und ich glaube, die interessanteste Neuerung, zumindest für mich, ist der Agent, der genutzt wird, also um die Anwendungen zu bauen. Das ist jetzt derselbe Agent, den man in Anti-Gravity hat. Das heißt, langsam aber sicher versuchen wir alle Dinge so ein bisschen zu vereinen. Das heißt, man hat jetzt, wenn man einen Prompt eingibt, den Anti-Gravity Agent und kann Next.js-Anwendungen bauen. Zusätzlich hat man jetzt eine native Firebase-Integration. Das heißt, bisher konnte man so Themen wie Authentication oder Datenbanken halt nicht irgendwie mit abbilden. Und jetzt kann man ganz einfach über einen Prompt halt sagen, hey bitte, naja, nutzt irgendwie Google-Login mit dazu oder nutzt halt eine Firebase-Datenbank. Man hat ein besseres Secret Management. Das heißt, ich kann API-Keys bereitstellen, welche dann aber nicht zur Laufzeitverfügung sind, sondern mehr oder weniger ersetzt werden. Das heißt, es ist basierend auf dem Request, der danach folgt. Sehr cool. Gibt es ein Free-Tier zum Testen mit Gemini Free Flash. Das heißt, ihr könnt es einfach so testen, ein paar Prompts ausprobieren. Es gibt auch einen sehr coolen Guide, den ein Kollege von mir geschrieben hat mit Tipps und Tricks. Und ich glaube, heute immer noch ist Gemini Flash eins der besten Frontend-Modelle. Also ich sehe immer ab und an mal wieder Kommentare, wie schlecht Codex oder Claude bei Frontend-Design ist oder man es relativ gut erkennt. Und genau, einfach mal testen. Und man kann auch jetzt wieder mit einem Klick mehr oder weniger das nach Cloud Run deployen. Also wir versuchen alles so ein bisschen mehr Google-integrierter zu machen und nicht, dass man diese Painpoints hat mit, hey, okay, wie kann ich meine Firebase-Datenbank verknüpfen, wie kann ich es deployen, wie kann ich es erstellen, wie kann ich die Google Cloud-Konsole irgendwie navigieren. Das heißt, man hat alles schön in Studio, funktioniert über den Cloud-Account, den man dahinter hat, geht relativ easy, ein paar Promps testen und dann kann man es deployen.
SPEAKER_00Cool. Und was raus? Mein Tool ist auch fertig. Das hast du gebaut. Wir müssen gerade im Office 2 ein bisschen Teams umstrukturieren und es neu hinsetzen und dann wollten wir jetzt einen Tischplan eigentlich nur haben. Also und wer wo sitzt und was er für Anforderungen hat und die muss man auf so einem Grid noch herschieben können und sagen können, wie viele Bildschirme auf den Tisch sollen. Und ja, das hat soweit ich es beurteilen kann, erstmal funktioniert. Mit einem Prompt.
SPEAKER_01Ja, und ich glaube noch, was ein bisschen ein Unterschied ist für alle, die so plattformen kostenlos testen möchten, mal, ist, dass bei Default die Apps private sind. Also ich kenne es von Lovable oder VZero. Wenn du die kostenlose Variante nutzt, dann ist ja die App, die du boust, public verfügbar oder halt nicht irgendwie private verfügbar. Und die Apps, die du in AI Studio baust, sind per Default erstmal Private. Man kann sich natürlich mit seinem Team über die gleiche Domain oder generell über den Preview-Share-Link auch teilen. Aber ja, gerne mal testen, gerne Feedback da lassen. Und wer weiß, vielleicht hilft es ja auch deine Sets beim Leute umsetzen.
SPEAKER_00Ja, es ist schon irgendwie verrückt. Das sind ja so kleine Momente, wo, keine Ahnung, das würde jetzt auch noch auf Papier gehen oder in das Deck nach Rechnersynchron oder wie auch immer. Und das ist wahrscheinlich nicht so ein bisschen Overkill dafür, das ein Tool zu machen. Andererseits war das jetzt auch gerade ein Prompt und du hast irgendwie halt das Visuell, das du einfach machen kannst. Und wie du schon sagst, wenn du jetzt noch irgendwo schnell einen Login machst und es einfach dann teilen kannst oder halt eine geteilte Datenbank, das halt online leben kann, dann hast du halt was super spezifisch für die Use Cases. Das kannst du im Zweifel danach auch wieder wegschmeißen. Und hast aber trotzdem halt eine sehr angenehme User Experience für alle, da kurz einzutragen, was sie brauchen und wo sie sich platzieren. Oder einfach Remote First, kein Office mehr, fertig ist. Ja, da müssten wir jetzt eine längere Diskussion führen. Nicht der größte Fan von, aber wenn man eine Company darauf ausrichtet, dann kann das auch funktionieren. Du hast, okay, du hast eben noch gesagt, das ist jetzt der Antigravity Agent. Das heißt, das ist diese, das ist die Harness, nennt man das, oder? Also dieses außenrum. Die Harness ist das davon. Und dann gibt es aber weiterhin noch euren, den reinen Cloud Agent. Oder ist der abgeschafft worden? Wie heißt er? Julie? Julia? Jules. Nee, Jules existiert auch noch. Und da ist aber eine andere, immer noch eine andere Harness. Ich weiß es gar nicht. Ich weiß nicht, was da.
SPEAKER_01Also ich meine, overall der Gedanke ist schon, dass man nach und nach versucht, das alles so ein bisschen zu unifizieren. Bei AI Studio weiß ich es halt selber, weil ich da mit dabei bin. Bei Jules weiß ich es nicht genau. Ich meine, es sind auch ein bisschen noch unterschiedliche Umgebungen, wo Dinge ausgeführt werden. Aber ja, langfristig ist es so ein bisschen der ganze Plan.
SPEAKER_00Und gibt es irgendwo eine offizielle, also es gibt diese, du hast eben schon gesagt, irgendwie Guides, was so die Best Practices sind, um ein bisschen anzuleiten. Gibt es irgendwo auch, hast du schon mal gute Vergleiche gesehen, was zwischen den unterschiedlichen Agents irgendwie unterschiedlich ist? Also wenn man jetzt von Cloud kommt und sagt, so, was sind die Sachen, auf die ich mehr achten muss, wenn ich das, wenn ich das jetzt bei AS Studio mal ausprobieren möchte?
SPEAKER_01Also ich habe ab und an mal welche gesehen, die gerade irgendwie Cloud Code mit Codex vergleichen oder halt auch Cloud Lovable mit Bowl, aber es ist schon ein bisschen länger her. Das Problem ist halt, die Dinge sind ja immer outdated. Also es ist ja nicht so, dass wir heute, also du kannst dich ja nicht heute hinsetzen und, sag ich mal, eine Recherche erstellen, die wirklich vier Tools miteinander vergleicht und versucht ein bisschen zu verstehen, wo die Stärken und Schwächen sind, weil innerhalb der Zeit, wo du das machst, deployt wahrscheinlich jedes Tool irgendwie vier Updates. Das heißt, du kannst gar nicht mehr deine Werte reproduzieren, weil du einfach keine Versionierung irgendwie dahinter hast. Deswegen denke ich mal, gibt es halt auch wenige Vergleiche und immer nur viel, hey, das habe ich gemacht, das war der Prompt und so funktioniert es halt irgendwie. Und vielleicht ändert sich das in sechs bis zwölf Monaten, aber ich meine, aktuell gefühlt gibt es ja zwar nicht mehr ganz so viele Model-Updates, zumindest in den letzten zwei, drei Wochen, aber ganz viele Agent- und Produkt-Updates, wenn ich mal da einfach irgendwie ein bisschen in Codex, Clotcode und dann alle anderen reinschaut.
SPEAKER_00Ja. Und da finde ich halt auch krass, wie stark der Impact davon auch immer noch ist. Also es ist jetzt nicht so, dass es irgendwo einfach nur irgendwie ein kleines UI gefixtelt ist, sondern es ist dann, ja, also mit so immer noch relativ gefühlt, immer noch relativ kleinen Tweaks, also keine Ahnung, haben wir da letztes Mal drüber gesprochen, weiß ich gar nicht, ist das in Kontakte, was ja auch so ein Tool ist, wo man verschiedene parallele Stränge irgendwie ganz gut übersichtlich sieht. Die haben so ein Review-Prompt und das ist ja auch eigentlich nicht viel mehr als einfach ein Prompt, der ausdefiniert ist, aber da sie da gleichzeitig vier Subagents spawnen, die so unterschiedliche sich Aspekte der App angucken, fühlt sich das halt irgendwie direkt wertiger an und ja, an den Modellen hat sich nichts geändert. Das ist nur so, ne? Nutze dir dieses Modell, um das zu überprüfen, macht das und fasse es am Ende zusammen. Also da ist immer noch, finde ich, relativ viel oder gefühlt einiges an Luft, dadurch, dass so viel schnelle Änderungen kommen, dass das auch immer noch ordentlich weitergehen kann.
SPEAKER_01Ich glaube, als Entropic hat ja auch dieses PR-Review-Feature veröffentlicht vor zwei bis vier Wochen und da war ja ein bisschen ein Setzen da, weil sie es ja mit 15 bis 20 Dollar pro PR irgendwie vermarkten verpreisen, was ja schon sehr teuer ist im Vergleich zu, ich weiß nicht, so einer Cloud Mark-Subscription für 200 Dollar im Monat. Das heißt, wenn ich 10 PR-Review, ist das gleiche, die gleichen Kosten. Und ich habe gestern zum Beispiel gesehen, Player Zero, auch neue Startup, gleiches Prinzip, PR-Review, nur 1 Dollar. Und die haben scheinbar bei Evals, dass es besser ist. Und es ist viel Experimentieren und viel Bauen, was sehr cool ist, aber auch super schwierig, den Überblick irgendwie zu behalten. Und ich glaube, viele sind einfach, ich nutze halt das Tool und dann mal schauen, was kommt.
SPEAKER_00Ja. Ja, absolut. Jetzt fallen mir gerade noch neue Themen ein, die eigentlich nur in die News müssten, aber das machen wir später nochmal. Hier wird diese ganzen Plot-Hand-Off-Sachen und sowas, die so ein bisschen Richtung Dings gehen. Okay, versuchen wir am Ende nochmal kurz zu machen. Erstmal mache ich das größere Thema, was ich noch mitgebracht habe, und zwar ein neues in anfrischen Modell von Cursor und zwar Composer 2, also Cursor, die IDE, die relativ früh da draußen war. Und genau, so AI First und Agent First sich ein bisschen, wo gar nicht Agent First, ne? Das war eigentlich noch früher, AI First, vor allen Dingen erstmal als Entwicklungsumgebung sich dargestellt hat. Die haben auch eigene Modelle und ich habe in Anführungsstrichen gesagt, eigene, weil es so ist, dass sie nicht das Space Model selbst trainieren, sondern ein fertiges Modell nutzen und das dann mit weiterem Feintraining und dann optimieren auf genau die Use Cases, die sie brauchen. Und als es rausgekommen war, war noch so ein bisschen Verwirrung und weil irgendwo in der Config war dann zu sehen, okay, ist eigentlich ein Kimi K2.5-Modell und dann war so, okay, warum haben sie das nicht gesagt? Und am Ende hat sich irgendwie jetzt alles aufgelöst in Wohlgefallen, weil Kimi oder die von Moonshot gesagt haben, hey, das war in der Partnerschaft zusammen und es ist mega cool, dass wir sehen, so was mit dem Modell gemacht wurde. Und genau, also auf jeden Fall hat Cursor praktisch obendrauf auf diesem Modell alles Mögliche gemacht und damit tatsächlich auf einigen Benchmarks sich wieder relativ nah rangekämpft. Und eins der ganz großen Vorteile sozusagen ist das Pricing, weil es deutlich günstiger ist. Also sie haben auch mal direkt so ein bisschen in Frage stellen, einen Benchmark, der sich Cursor Bench nennt. Das heißt, er ist von ihnen selbst. Aber ja, den haben sie auch in der Vergangenheit genutzt, um eben andere Modelle dort zu testen. Und da ist es so, dass es aktuell ein bisschen unter der Performance von GPT 5.4 HI liegt und ein bisschen über der Performance von Opus 4.6 HI und aber in den Kosten deutlich günstiger als alles ist. Also rein Token-basiert sind wir bei einem halben Dollar pro Million Input-Token und 2,5 Millionen Output-Token. Und das Ganze gibt es dann nochmal in einer Fast-Variante, wo wir bei 1,50 Dollar Input und 7,50 Dollar Output sind. Und genau, FAST bedeutet in dem Zusammenhang, dass wir bei ungefähr 200 Token pro Sekunde sind, die da produziert werden. Um das ein bisschen mal in den Vergleich zu setzen, bei GPT 5.4 oder Opus 4.6 sind wir so bei 80, 70, 80 Tokens ungefähr, die da rauskommen. Und es gibt ja auch diese, haben wir glaube ich hier auch drüber gesprochen, so eine Fast-Variante von Opus 4.6 Fast. Die kommt fast da an die Geschwindigkeit Composer 2 Fast. Das ist bei 100, nicht ganz eindeutig hier auf dem Graphen ablesbar, aber sagen wir ungefähr 160, 70 Token pro Sekunde, hat aber im Vergleich dazu irgendwie über oder 150 Dollar pro Million Output-Tokens, also exponentiell viel teurer als das, was Composer 2 macht. Genau. Und ja, haben sie es auch noch auf einigen anderen Benchmarks mit verglichen. Und ja, also am Ende kann man sagen, ich habe es jetzt selbst noch nicht getestet und auch nicht so viel darüber gehört, aber es ist ein sehr, sehr solides Coding-Modell, was Agents, wo Agents gut mit funktionieren und was eben in einer sehr, sehr guten Geschwindigkeit und zu einem sehr niedrigen Preis kam.
SPEAKER_01Ja, ich weiß nicht, ob du es verfolgt hast auf Twitter und Social Media war ja schon ein bisschen ein großes Back-and-Forth mit, hat Cursor mit Absicht erstmal versteckt, dass es Kimi-Modell ist, weil irgendwie ein Kimi-Researcher irgendwie gepostet hat, dass es irgendwie cool ist, wenn die sich an die Lizenz halten würden. Das heißt, da waren ein bisschen Kommunikationsschwierigkeiten, weil Cursor das Modell über Fireworks sozusagen genutzt hat oder halt auch trainiert hat, irgendwie über die Compute-Plattformen. Dann müssen die das, also die haben dann eine andere Lizenzvereinbarung und es gab einigen Kommunikationsbedarf von Cursor am Ende des Clubs stellen. Ich meine, gute Presse wahrscheinlich hätte man trotzdem besser lösen können, aber sehr cool trotzdem zu sehen, dass sie weiter, sag ich mal, Modelle trainieren. Weil ich glaube, so bei Windsurf oder Devon, die haben ja, glaube ich, auch nie ihr eigenes, aber schon eher weniger.
SPEAKER_00Ja. Jo. Also, auch wenn wir gerade gesagt haben, nichts Großes Neues, auch da Weiterbewegung im Markt und eine spannende Entwicklung, die man so sieht. Amy, was ist Amy oder Amy oder weiß nicht genau, wie man es aussprechen würde auf Englisch. Amy wahrscheinlich. Amy, maybe. Amy. I don't know.
SPEAKER_01Amy steht für Advanced Machine Intelligence und ist ein neues Research Lab von Jan Le Corn. Jan Le Corn, vielleicht ganz kurz nochmal. Einer der Urvater, was neuronale Netze angeht, hat auch damals das Le Conn-Net irgendwie mit ins Leben gerufen oder mit erforscht, was das erste Modell war, was so CNNs genutzt hat für Computer Vision Tasks, also wirklich schon lange dabei. Und zuletzt, sage ich mal, ist er hauptsächlich aufgefallen dadurch, dass er nicht glaubt, dass LLMs oder Next Token Prediction der Weg zu HEI ist. Und wir haben es ja auch in der News gehabt, Meta hat ja letztes Jahr Scale AI mehr oder weniger acquired und hat dann Alexander Wang und das Meta Super Intelligence Lab mehr oder weniger ins Kleben gerufen. Und Jan Le Könn war bisher der Chief Scientist, glaube ich, für FAIR, also das Facebook AI Research Programm. Und der wurde mehr oder weniger ersetzt dadurch und war eigentlich absehbar, dass er irgendwann halt Meta verlässt. Und das hat er jetzt gemacht und hat ein neues Startup oder ein neues Research Lab gegründet und hat ganz viel Geld eingesammelt. Und zwar eine Milliarde bei 3,5 Milliarden Pre-Money Valuation mit dem Ziel natürlich auch AGI zu erreichen, aber beziehungsweise genauer beschrieben ist es BuildAI that understands the physical world through world models und dabei direkt die JPA-Architektur referenziert, welches auch eine, sag ich mal, seine letzte Research-Domäne mehr oder weniger war und nicht nur LLMs. Und ich glaube wirklich, das Coole ist, dass sie in Europa sind, also Büros hauptsächlich bisher in Paris und Zürich. Und es ist sehr schön zu sehen, dass da halt auch Geld und viel Geld investiert wird. Meistes Geld kommt trotzdem aus den USA und keine Ahnung, wie genau wie die, sag ich mal, rechtlichen Dinge das sind, aber in Europa Research Lab und Aufforschung ausgelegt.
SPEAKER_00Okay. Ich habe irgendwie das Gefühl, ich bin auf der falschen Webseite. Ich dachte so, okay, was bieten Sie denn bis jetzt an, aber ich glaube, das ist, da kann ich jetzt so irgendwas sagen. Was ist das? Arminilabs.xy Z. Okay, ja, das ist was anderes. Also seid ein bisschen vorsichtig, wenn ihr Army AI sucht. Da kommt ein bisschen was anderes. Ah, okay, ja, das macht jetzt mehr Sinn. Ja. Dann packen wir die Linken auch vor sich selber in die Shownotes.
SPEAKER_01Ja, ich finde es immer faszinierend, dass dann so Labs mit so sehr berühmten Researchern von jetzt auf nachher halt Milliarden Geld bekommen. SSI mit Ilia war ja dasselbe. Ich meine, du brauchst ja irgendwie das Geld, weil sonst kannst du gar nichts mehr machen, weil du halt einfach den Scale fürs Trainieren brauchst, aber es ist schon immer ein interessanten Bett. Also im Vergleich zu, keine Ahnung, Startups, wo man den kompletten Businessplan braucht und irgendwie den ersten Product-Market-Fit schon irgendwie benötigt hat, damit man überhaupt Geld einsammelt zu, hey ja, ich bin ein AI-Researcher und habe viel dort gemacht. Okay, hier, nehme ich Geld.
SPEAKER_00Ja. Ja, gut. Das hat man sich völlig über die Jahre aufgebaut. Aber ob es das rechtfertigt, ist natürlich trotzdem nur eine Frage. Ja, wir werden es beobachten. Und wenn da was Spannendes rauskommt, wird es sicher mit sicher auch hier zu hören sein. Du hast noch irgendwas in dem Zusammenhang.
SPEAKER_01Vor ein paar Monaten hat ja Anthropic Band acquired und OpenAI hat jetzt Astral acquired. Vielleicht für die, die Astral nicht kennen, das ist die Company hinter UV, Rough und, sag ich mal, allem, was aktuell das Python Developer Ecosystem ein bisschen besser macht. Und das Team joint OpenAI und wird weiterhin an, sag ich mal, den Open Source-Produkten arbeiten, aber passt so ein bisschen in den, sag ich mal, Infrastrukturplay rein. Und es ist ja interessant zu sehen, dass Anthropics-Bad dann eher in Richtung JavaScript geht und eventuell OpenAIS Bad mit dem mehr in Richtung Python und Custom Runtime zu Python.
SPEAKER_00Was sind davon die mittelfristen Ziele, dass die spezielle, also einfach, dass die Develop-Experience und das Bauen rundum mit AI irgendwie besser wird? Oder dass es mehr Teil von den Modellen wird? Oder wo sie?
SPEAKER_01Also ich glaube, beides. Also ich meine, das Einfachste, wie ich es mir irgendwie erklären kann, ist ein bisschen, wenn du halt irgendwie mehr oder weniger eine Sprache besitzt, kannst du die aktiv beeinflussen, welche Features supportet werden. Also zum Beispiel ein großes Thema ist ja bei Code-Execution immer Sandboxing. Also wo kann ich den Code ausführen, ohne dass ich irgendwie Probleme erstelle. Und Bann oder halt Jared von Bann hat da irgendwie halt angefangen, an Themen zu arbeiten, wie ich das irgendwie besser machen kann. Man kann das natürlich auch beeinflussen, was das Training angeht. Also ich kann mein Modell besser verbessern auf dieser Sprache. Und dann, ich meine, Claude Code ist ja auch in irgendeinem TypeScript-mäßigen Format geschrieben. Das heißt, ich kann mein eigenes Produkt natürlich dann auch verbessern, wenn ich, keine Ahnung, wann besser irgendwas kompilieren lasse oder irgendwie sowas. Bei Python ist es ein bisschen schwieriger, aber schön allein die ganzen Toolings, die Astral erstellt hat, wie ich Python-Code schneller formatieren kann, wie ich Python-Code schneller type checken kann, Tests laufen lassen, allein UV. Also durch UV kann ich ja mittlerweile Python-Skripte ausführen, ohne dass ich irgendwie einen Python-Interpreter brauche, weil der da mitgeführt wird und ich kann oben in die Skripte Inline-Dependencies machen, welche dann ausgeführt werden. Ich habe viel besseres Caching, was Pip-Installs angeht und sowas. Das heißt, man kann schon viel da machen. Und ich meine, jeder sieht ja, alle Agents nutzen irgendwie Code, um irgendwelche Dinge zu steuern, zu schreiben, zu machen, zu tun. Und deswegen macht es schon, sag ich mal, einigermaßen Sinn.
unknownOkay, cool.
SPEAKER_00Gut. Ja, damit eigentlich mit der offiziellen Agenda durch, aber mir ist tatsächlich noch aufgefallen. Also eben redeten bei Claude gab es noch irgendwie ganz lustige Entwicklungen. Zum einen haben sie Claude Dispatch ist, glaube ich, der Name, ne? Gelauncht. Also wo man von unterwegs Claude auf seinem Rechner steuern kann. Also letztendlich braucht man, ich glaube im Moment ist es noch auf Mac, ähm, Begrenzt, wo Cloud drauf läuft und hat dann durch die Cloud-App eine Möglichkeit, da einfach Tasks zu machen. Das heißt, wenn man zwischendurch denkt, hey, ja, ich muss noch das machen oder das bauen oder das organisieren oder wie auch immer, kann man Cloud Cowork, ist glaube ich das, was da zugrunde hinterliegt, Remote bedienen. Was ja so ein bisschen in den Hype rund um was war der letzte Name? Open Claw Feld. Und ja.
SPEAKER_01Was ich interessant finde, ist, Cloud Cowork und Cloud Code nutzen ja höchstwahrscheinlich den selben Agent Harness. Zumindest war das bei dem Release so. Und die Features kommen immer fast tagesversetzt von dem einen zum anderen. Also Cloud Code hat ja auch jetzt diese Channels, glaube ich, ist der Name. Wo ich dann irgendwie von Telegram oder von anderen Bereichen meine Cloud Code-Instanz auf meinem PC einsteuern kann. Dann hat ja Cloud Cowork dieses Dispatch-Feature. Und beide haben ja auch mehr oder weniger Automations gelauncht, welche ich in Cloud Code festlegen kann, hey, bitte alle zwei Stunden für den Prompt irgendwie aus mit so einer Art Grund-Job-mäßigen. Beide Features sind höchstwahrscheinlich inspiriert von OpenClaw. Da gibt es Heartbeats, was dasselbe Konzept ist. Und ich meine, OpenClaw wurde ja über Telegram, WhatsApp und wie auch immer angesteuert.
SPEAKER_00Ja. Ja, spannend. Und ich bin auch mal gespannt, ich weiß nicht, hast du schon mal irgendwo, wir hatten hier in der AIWIC, also die hatten, da gab es noch ein paar, die mal mit Cloud Cowork was gemacht haben. Ich selbst habe es noch nicht groß genutzt. Hast du da schon irgendwie was mitbekommen, so wie diese Tools für halt nicht nur ich programmiere und code eine App, sondern, keine Ahnung, ich habe Arbeitsabläufe, dass das schon irgendwo ankommt oder ist das noch sehr theoretisch und das muss erst noch in die Companies gepusht werden?
SPEAKER_01Was man halt auf Social Media sieht, sind halt immer diesen typischen E-Mail, Marketing, Whatever, Knowledge Work-Dinge. Oder ich habe auch jemanden gesehen, tatsächlich, der über mit Cloud Co-Work in Elster seine Steuererklärung hochgeladen hat. Er sind halt immer die Themen, also ich meine mittlerweile mit den neuen Chrome-Updates kann ich ja dieselbe Chrome-Instanz nutzen, wo der Agent mehr oder weniger so ein Debug-Tab hat und ich weiterhin meinen Browser ganz normal nutzen kann. Das heißt, man hat nicht dieses Overlap. Und dann kann ich das ja einfach starten und im Hintergrund laufen lassen. Und das sind halt wahrscheinlich wirklich für so Tasks, wo man eigentlich keine Lust dazu hat oder wo so 70% Qualität vielleicht genug sind am Anfang, dass ich halt das machen kann. Und auf lange Sicht, ich meine, gestern haben sie ja auch Computer-Use vorgestellt, wo dann Cloud Co-Work den kompletten PC steuern kann. Also nicht nur den Chrome-Tab, sondern wirklich Maus-Tastatur und auch irgendwie hergehen kann, Photoshop aufmachen, ein Bild reinladen und dann irgendwie das Bild bearbeiten, wirklich mit Klicks, Drag ⁇ Drop und Mouse-Input oder irgendwie sowas. Mal schauen. Ist halt immer noch langsam. Sehr langsam, sehr teuer. Und muss man sich gut überlegen. Den anderen Ansatz, den man ja sieht, ich glaube, Browserbase macht es, die haben auch so einen Agent, der nennt sich Stagehand. Da hast du deinen Agent und gibst ihm die Task, ich weiß nicht, fülle meinen Elster Whatever aus oder such irgendwie was. Und der Agent generiert dann daraus mehr oder weniger so ein Playwright-Skript. Das heißt, dass du das erste Mal den Agent machen lässt und dann das zweite Mal mehr oder weniger das Skript hast, dass es dann viel schneller geht von der Automatisierung her. Klar, wenn du irgendwelche, wenn sich Dinge verändern, dann geht es natürlich nicht. Aber ja.
SPEAKER_00Ja, da hatte ich eine lustige Experience, weil also es war Claude Crow, nee, wie heißt es Claude in Chrome, ist ja glaube ich dieses noch, was es mal separat gab, noch von Cowork irgendwann mit einem Kollegen zusammen und der wollte, dass man so das erste Mal testen und der musste so einen sehr stupiden Task, Rechnungen angucken und dann validieren, dass die Rechnungsdaten mit Überweisungsdaten übereinstimmen, so in etwa. Und hat gesagt, hey, das mache ich hier so, kannst du das mal für die nächsten Rechnungen machen? Und dann hat Claude angefangen und hat das super ordentlich gemacht und so, ja, das überstimmt und das sind die Zahlen und so. Und dann irgendwann war so ein Thinking-Schritt so, hm, ich kann das glaube ich auch optimieren und einfach in Badges machen und hat einfach angefangen, so über fünf oder zehn Sachen zu markieren und einfach zu sagen, okay, check, passt. Und hat sich so selbst optimiert und an diesem ganzen Ziel vorbei, das wirklich abzugleichen. Ja, aber das sind mit Sicherheit so lustige Flows, die am Anfang immer noch mal passieren. Aber diese Optimierung mittendrin fand ich sehr lustig. Gut. Dann haben wir uns endlich mal eine kurze Folge gehalten. Unser ewiges Ziel. Kurze Newsfolgen. Ja. Sehr schön. Jetzt sind wir dann wieder mit Fabian länger. Ja klar, dann hat man auch automatisch schon mehr Themen. Wenn ihr Feedback habt zur Folge wie dieser oder sonstiges, schreibt uns gerne an podcast.programmier.bar. Sonst wünschen wir euch zwei wunderschöne Wochen, wo die Temperaturen draußen ein bisschen wärmer sind. Philipp ist einigermaßen wieder geheilt, aber ich wünsche dir noch eine gute restliche Besserung. Ich meine, es wird wieder kalt, es soll sogar schneien, glaube ich, nächste Woche. Ja, das habe ich noch nicht geguckt. Okay, dann. Ignoriert das, was ich gesagt habe. Bleibt gesund und wir hören uns wieder in zwei Wochen. Bis dann. Ciao. Ciao.