programmier.bar – der Podcast für App- und Webentwicklung

News AI 19/26: Deepseek V4 // Cursor SDK // Agentic Engineering

programmier.bar Season 7 Episode 37

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 28:38

Wie hat dir die Folge gefallen?
Gut 👍
Schlecht 👎
(Keine Anmeldung erforderlich)


Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video.

Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar

In dieser Folge der AI News beschäftigen sich Dennis und Philipp mit der Frage, ob die Ära der subventionierten AI-Abos langsam zu Ende geht. Während GitHub Copilot seine Preismodelle anpasst und Limits bei Claude spürbarer werden, stellt sich für viele Entwicklungsteams die Frage: Wann ist ein lokales Modell oder eine eigene Rechenkapazität sinnvoller als die Cloud-Subscription? Passend dazu werfen wir einen Blick auf das neue DeepSeek V4, das mit den Versionen Pro und Flash nicht nur durch ein Kontextfenster von einer Million Token beeindruckt, sondern vor allem den Preiskampf bei Frontier-Modellen massiv verschärft.

Ein weiteres Highlight ist die Einordnung von Andrej Karpathy zum Thema „Vibe Coding” vs. „Agentic Engineering”. Wir diskutieren, warum der einfache Zugang durch Prompting die Basis der Softwareentwicklung verbreitert, aber für professionelle Anwendungen ein tieferes Verständnis der Logik und Infrastruktur unerlässlich bleibt. Karpathy betont dabei, dass ihr zwar das Denken auslagern könnt, aber niemals das Verständnis für das System verlieren dürft. 

Zum Abschluss tauchen wir in das frisch veröffentlichte Cursor SDK ein. Damit erhaltet ihr die Möglichkeit, die Intelligenz des beliebten Editors direkt in eure eigenen Workflows, CI-Pipelines oder benutzerdefinierten UIs zu integrieren. Besonders spannend ist hierbei der Cloud-Modus, bei dem der Agent in einer isolierten VM arbeitet, während ihr lokal die volle Kontrolle behaltet.


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Bluesky
Instagram
LinkedIn
Meetup
YouTube

SPEAKER_01

Hallo und herzlich willkommen zu einer neuen AI News Kalenderwoche 19 im Jahr 2026. Wir sprechen heute über DeepSeek in einer neuen Version Nummer 4, über das Cursor SDK und ein bisschen über die Begriffe des Vibecoding und Agentic Engineering. Ich bin Dennis Becker und bei mir ist der Philipp, hallo. Moin Philipp. Wir müssen wieder auf Fabi verzichten, der angeblich viel zu arbeiten hat. Arbeitet er nicht mehr bei Lotum? Doch. Okay. Sehr gut. Brauchte man nur zwei Sekunden, um den zu verstehen. Doch, doch, arbeitet doch bei Lotum, aber er hat gesagt, ich meine, seine Nachricht war so etwas wie diese Woche nochmal aussetzen, aber dass er zuversichtlich ist. Bald wieder hier.

SPEAKER_00

Ja, das ist meistens immer so, dass Anfang vom Ende, das heißt, wenn Fabi dann nicht mehr mitkommt, dann wissen die Zuhörer auf jeden Fall Bescheid.

SPEAKER_01

Aber wir haben sowieso, wir müssen mal, keine Ahnung, darf man hier schon so direkt interne, interne Gedanken, nein, sind es ja nicht programmierbar, ist ja ein öffentliches Format, was wir haben, aber natürlich schon die Überlegung, auch in den News ist ja jetzt viel mit AI einfach und ich meine, ein Framework-Update wird einfach in der Zukunft nicht mehr so relevant sein, sondern die Sachen, die uns halt beschäftigen, sind AI und jeder Software, jede Software-Entwicklerin draußen irgendwie hat halt mit AI zu tun und nutzt diese Tools, ob dann mittelfristig halt diese Trennung zwischen AI-News und News noch sinnvoll ist oder wenn es nicht sowieso auch um die Themen geht. Und vielleicht kann man es trotzdem ein bisschen irgendwie einmal theoretischer, einmal ein bisschen praktischer Anwendung. Müssen wir ein bisschen gucken. Falls ihr Feedback dazu habt, wie ihr euch gerne das Format vorstellt hier in der Programmierbar, schreibt uns gerne an podcast.programmierbar oder über unsere Webseite programmier.bar. So jetzt kommt mir spontan der Übergang, vielleicht machen wir, wir machen, wir schweifen erstmal ganz kurz ab von der Agenda, Philipp. Ich würde mal gerne interessieren, was dein Take dazu ist. Weil wir haben jetzt so intern bei uns, also Diskussion ist vielleicht ein bisschen übertrieben, aber so das erste Mal diese Gedanken, wenn wir jetzt eine Claude Subscription haben oder auch von mir aus eine Codex Subscription, so dass wir immer mal häufiger jetzt in die Limits laufen von den Abos. Wir hatten es ja, glaube ich, das letzte Mal schon gesagt, so, ja, okay, muss man dann zwei Abos machen oder so. Aber irgendwo, ne, ist ja, irgendwie merkt man auf jeden Fall, da war dieser Test von Anthropic, wo sie das Cloud Code aus dem Basic-Plan rausgenommen haben. Codex, was jetzt deutlich begrenzter ist von den Möglichkeiten, die in den Abos mit drin sind, dass es tendenziell ein bisschen teurer wird. Und ich meine, bis zum gewissen Grad kann man bei uns einfach irgendwie sagen, ja, das ist alles okay. Also ich meine, du hast einen Mehrwert davon, ob das jetzt 100 Dollar kostet oder 200, 300, 400, wahrscheinlich auch 500 Dollar. Und ich würde auch sowas sagen, wie 1000 Dollar, die ein Nutzer im Monat noch zusätzlich hat, ist irgendwie diesen Mehrwert, den man aktuell dadurch spürt, irgendwie wert. Und trotzdem ist ja dann ein bisschen die Frage, okay, wohin geht da so ein bisschen die Zukunft? Und da ist ja im Moment so ein bisschen, ja, okay, wird einfach alles teurer und diese Pläne sind irgendwie subventioniert. Aber ist nicht auch gleichzeitig, also ist nicht der Marktdruck so groß, dass die Leute irgendwie die Modelle an die Leute bringen wollen und die Weiterentwicklung in Performance der Modelle und in Rechenleistungen irgendwie skaliert die nicht auch so, dass das, ich kann mir irgendwie nicht vorstellen, dass es exorbitant wird. Es gab irgendwie, weil hatten wir das schon in der letzten Folge, bin unsicher, ob wir es hier oder privat diskutiert haben, es gab irgendwie so einen X-Post, wo einer gesagt hat, hey, wir fangen jetzt wieder an, Junior-Leute einzustellen, weil die sind günstiger als unsere Token-Kosten. War es dein Text so mittelfristig? Ich meine, wenn es jetzt kurzfristig, ne, wenn es so jetzt Zeiten gibt, wo es entweder zu billig ist oder von mir aus Ort dann irgendwie zu teuer, aber wird das zukünftig eine relevante Überlegung sein?

SPEAKER_00

Ich glaube, wir werden immer wieder darüber reden. Also man hat ganz stark gemerkt, dass vor allem in den letzten sechs Monaten die Subscriptions ja krass subventioniert waren. Man sieht es jetzt, glaube ich, GitHub war letzte Woche, die neue Subscriptions pausiert haben und ihr Pricing-Modell-Änderungen angekündigt haben, was ja, ich glaube, fast im Schnitt dreimal teurer, beziehungsweise die Modelle sind dreimal teurer in deiner Subscription und du bekommst jetzt nur noch sozusagen Credits für 20 Dollar und kannst sie dann aufnutzen. Also man sieht an allen Enden, dass halt Compute immer noch immer noch Compute-Constrained sind und dass halt Leute bereit sind, mehr Geld auszugeben für mehr Tokens. Das heißt, du hast halt eine viel höhere Nachfrage als das Angebot und das drückt halt irgendwie den Preis ein bisschen. Und ich meine, für Anthropic oder für andere und ich meine, OpenAI sieht aktuell noch am besten aus, aber du hast halt nur eine gewisse Anzahl an Compute und wenn du nicht mehr hast, kannst du halt auch nicht mehr Leute holen und irgendwann fängst du halt an, den Preis halt anzupassen oder das mehr kalkulierbare zu machen. Und im gleichen Zug sehen wir aber halt auch, dass Modelle günstiger werden. Ich meine, ich habe jetzt zum Beispiel, wo ich in den USA unterwegs war, ich habe Gemma 26b4A lokal genutzt auf meinem MacBook. Und klar ist es nicht irgendwie das beste Frontier-Modell und macht alles hands-off von alleine, aber es kann schon sehr, sehr viele Dinge sehr, sehr gut. Und ich glaube, wir werden halt immer so ein Auf und Ab haben. Also ich würde fast sicher sein, dass die, wie sagt man da, die schöne Zeit von Claude Max 200 irgendwas und so viele Prompten, wie es nur geht, irgendwie jetzt langsam zu Ende geht. Wir werden bessere, teurere Modelle bekommen, weil die halt auch trotzdem immer noch größer werden. Also man merkt es halt nicht so krass, aber es gibt ja sehr, sehr viele Andeutungen immer wieder, dass die Modelle halt trotzdem noch größer werden. Man sieht es ja auch jetzt im Open Source Bereich, wir werden gleich über Deep Seek 4 reden. Auf der anderen Seite siehst du halt auch im Open Source-Bereich, wie es kostengünstiger geht. Also es wird ein umkampfter Markt bleiben und ich glaube, als Unternehmen musst du dich dann halt schon irgendwann mal damit befassen, okay, worauf fokussiere ich mich? Also bin ich bereit, Providers eher zu wechseln oder bin ich bereit, irgendwie sechs Monate hinter allen zu sein, aber dafür fünfmal günstiger? Oder investiere ich vielleicht selber wirklich in eigene Rechenkapazität, weil Modelle jetzt so gut sind, dass es, keine Ahnung, ab 50 Mitarbeiter günstiger wird für mich, die Modelle selber zu hosten oder so.

SPEAKER_01

Ja, aber siehst du irgendwo irgendwo eine Fahrt, wo das, wo man wirklich die Abwägung treffen muss, ob man da jetzt einen Mitarbeiter für einstellt oder eine?

SPEAKER_00

Nein. Ich meine, ich habe das davor auch nicht gesehen. Ich bin immer noch der starken Meinung, dass du mehr Leute einstellen kannst, dass du produktiver dadurch wirst und nicht halt, also ganz viel ist ja immer wieder mit Kosten reduzieren, verbunden und ob ich dann, klar, ich kann halt Kosten nicht reduzieren, wenn ich mehr Kosten habe durch Token Usage, also das verstehe ich dann schon wieder. Und ich meine, das bewegt man sich, glaube ich, eher an so ein bisschen übertriebenen Hype, Social Media in dem drin.

SPEAKER_01

Ja, weil ich würde eben auch sagen, weißt du, weil die Open Modelle oder die man, lokalen Modelle, die man halt jetzt nutzen kann, die sind ja qualitativ eben auch schon so gut, dass da absehbar ist, dass es einen Pfad gibt zu auch noch besseren Modellen. Weißt du, da ist ja jetzt auch nicht, warum sollte da jetzt gerade das Limit erreicht sein im Mai 2026 und es nicht weitergehen. Und wenn du das halt irgendwie siehst, wenn das noch ein Stückchen besser wird und an das heutige Rand rutscht, dann kannst du halt auch einen Großteil der aktuellen Coding-Sachen ja irgendwie auch lokal laufen lassen. Und ja, es wird dann wahrscheinlich immer noch die Frontier-Modelle geben, die es irgendwie in der Cloud besser können oder noch besser sind oder schneller oder weiß ich nicht. Aber von daher ist die Szenario für mich so, ich glaube, es wird mittelfristig halt keine, trotzdem keine große Abwägung. Ja, es kostet Geld und es ist eine Kostenstelle, so, die man im Moment hat, aber es ist natürlich auch für viele eine Produktivitätsschraube, die man sonst auch so auch noch nicht gesehen hat. Von daher, ja.

SPEAKER_00

Ich glaube, es ist schwierig zu planen, ist auf jeden Fall gut, sich damit zu beschaffen, äh, beschäftigen, was für Möglichkeiten man hat und nicht einfach nur weiter Subscriptions zu kaufen. Und dann werden wir sehen, wohin sich die Produkte entwickelt, weil irgendwann wird halt ein Produkt kommen, die diesen Router vielleicht besser implementiert und dann wieder bessere Subscriptions anbieten kann, weil 60% der Queries, die du halt schickst, gehen zu dem kleinen, schnellen Modell, aber du merkst es zum Beispiel gar nicht.

SPEAKER_01

Oder man nutzt, wie hieß das, Cavelik, Caveman? Also dieses, gab man so ein Cloud Code Skill, der gesagt hat, der das LM redet oder Cloud soll nur noch wie Höhlenmenschen reden. Also praktisch so alles reduziert auf nur noch Inhalt und dass man wenig kontextualiert, aber trotzdem irgendwie, weiß ich nicht was, 60% Token oder sowas gespart hat. Das ist vielleicht ein einzischen Weg. Gut, sollte eine Überleitung auch werden zu Deep Seek, denn da sind wir bei einem großen Modell, was aber doch deutlich günstiger ist.

SPEAKER_00

Genau, Deep Seag 4 endlich jetzt. Ich meine, es wurde, ich glaube, die letzten sechs Monate überall angeteasert, so ein bisschen. Endlich da mit vier Modellen. Wir haben Deep Seek V4 Flash und Pro in der Base-Variante, das heißt, man kann selber fein tunen, nur in der bereits getunten oder Post-Trend-Variante. Die Pro-Variante, weil wir die Größe erwähnt haben, hat jetzt 1,6 Trillionen. Das heißt, den Deutschen hätten wir Millionen, Milliarden, Billionen, also einige Modelle, einige Parameter, auch wieder ein MOI mit 49 Milliarden aktiven Parametern, so eins darunter. Flash-Modell hat 284 Milliarden Parameter und 13 Aktive, das heißt, sie haben jetzt zwei, ein kleines und ein großes. Sie haben ein schönes Paper dazu veröffentlicht, das heißt, wenn ihr euch damit beschäftigt, sehr, sehr zu empfehlen, durchzulesen. Sie teilen auch wieder ein bisschen ein paar Dinge, wie sie Caching verbessert haben und wie sie es trainiert haben, wie das Pre-Training-Dataset ausgesehen hat und Post-Training auch. Neue Features, es ist jetzt ein 1 Millionen Token-Kontext von bisher 128.000. Sie sagen, durch die ganzen Verbesserungen haben sie die Cache-Size also um CX reduziert. Das heißt, man braucht weniger Arbeitsspeicher, um halt einen längeren Kontext zu nutzen. Sie sagen von, man braucht A8 B200 Nvidia GPUs, damit man es komplett nutzen kann. Und da wir ja über Price geredet haben, was finde ich das mit interessanteste ist, weil im Verhältnis zu DeepSeag 3, was vor eineinhalb Jahren ungefähr rauskam, war ja damals der große Wow-Effekt, okay, Open Modelle haben irgendwie aufgeholt und sind nicht so gut wie die Frontier-Modelle. DeepSeag ist definitiv ein Schritt in diese Richtung, aber es war jetzt nicht dieser Wow-Effekt. Aber die Kosten sind der Wow-Effekt. Und zwar kostet die Pro-Variante 1,74 Dollar pro Million Input-Tokens, non-Cash, und 3,48 Dollar pro 1 Million Output-Tokens. Und die Flash-Variante kostet 14 Cent pro 1 Million Input-Tokens und 28 Cent pro 1 Million Output Tokens, wenn man dann Caches hat, was ja, sag ich mal, zum Beispiel bei Coding relativ oft der Fall ist. Das heißt, wenn ich in einem vorherigen Zug einfach dieselben Input-Tokens nochmal habe, dann müssen die nicht neu berechnet werden. Da kosten dann die Tokens für die Pro-Variante 14 Cent und für die Flash-Variante 2,8 Cent pro eine Million Input-Tokens. Das heißt, extreme Kostenersparnisse und auch Simon Willison hat das mal ein bisschen aufgefächert. Die Flash-Variante ist günstiger, ist viermal günstiger im Output als GPT-5.4 Nano und Gemini 3.1 Flash Lite, zehnmal günstiger als Gemini 3 Flash. Zwischen 12 und 15 Mal, ich weiß jetzt nicht genau, das Mathe, GPT 5.4 Mini. Es ist 20 Mal fast günstiger als Cloud Haiku. Dann die Pro-Variante, welche wirklich nah an das Frontier, sage ich mal, kommt, ist bis zu 4 bzw. fast 10 Mal günstiger als Opus oder GPT 5.5 und Gemini. Also schon einiges. Und dann stellt sich halt die Frage, so, hey, brauche ich dann das Beste vom Besten? Oder spare ich halt fünfmal die Kosten und nutze halt irgendwie DeepSeek, was auch mittlerweile auf allen gängigen Open Model Providern wie Fireworks oder halt auch einem Open Router verfügbar ist für meine Arbeit?

SPEAKER_01

Und ich glaube, die Aussage war das von Ihnen selbst, dass Sie gesagt haben, Sie haben das Gefühl, dass es so drei bis sechs Monate hinter den großen anderen State-of-the-art-Modeln gibt.

SPEAKER_00

Nee, ich meine, das sieht man ja ein bisschen. Also ich glaube, das letzte Beispiel war mit Kimi K, Kimi K2, also die 2.6-Variante, die kam ja vor ein paar Wochen und die ist so ein bisschen auf so net 4.5-Niveau, sage ich jetzt einfach mal. Klar, es ist immer, wie man das beschreibt und für welche Aufgaben und welche Modalities. Man kann immer noch sagen, dass Open Modelle alles, was mit Video zu tun hat, bei Tinder Gemini sind, aber halt vor allem im Coding-Bereich oder in einem Atlantic-Coding-Bereich, es ist halt so, sagt man drei zu sechs Monate. Klar, kann man das nicht so genau sagen.

SPEAKER_01

Ja. Okay. Und kannst du nochmal kurz für mich recappen, weil du ja so gesagt hast, ein Open-Modell, also was ist davon jetzt Open?

SPEAKER_00

Also DeepSeag hat eine Open Source Lizenz, in dem Fall MIT, aber man hat nur die Weights, also die Parameter und den Inference-Code. Das heißt, du hast nicht irgendwie Trainingscode, der von DeepSeek genutzt würde. Du hast auch nicht den, ich weiß nicht, ob DeepSeek intern eine andere Inference-Engine hat, aber du hast halt Support in Transformers, also in Hugging Face, in VLLM, in SGLang, in MLX, also in all denigen, sag ich mal, Open Source Frameworks, da hast du Support, um das Modell laufen zu lassen und auch trainieren zu können, in Transformers zumindest, aber du hast nicht den originalen Code, den die genutzt haben zum Trainieren oder für Inference, du hast die Trainingsdaten nicht. Deswegen eher ein Open-Waite-Modell als ein Open Source, weil natürlich der Source-Code für das Modell an sich nicht da ist.

SPEAKER_01

Okay. Und sie bieten sozusagen als Service trotzdem an, dass man das eben, daher kommen dann die Kosten, das sind die offiziellen Kosten, wenn man sie über die API nutzt. Du kannst sie aber auch, du könntest es theoretisch auch auf eigener Hardware stellen.

SPEAKER_00

Naja, du kannst einfach Amazon, Google Cloud, wo auch immer du dein hast. Simon hat auch die Flash-Variante auf einem MacBook M5 Pro mit 128 GB Arbeitsspeicher laufen lassen können, also quantisiert, also in For. Und an sich die Model Ways ist halt schon, die Pro-Variante halt 865 GB und die Flash-Variante 160 Gigabyte. Also man braucht schon ein bisschen GPUs, um dann Service zu betreiben zu können, aber man kann es klar, wenn ich irgendwie Amazon oder Azure oder wie auch immer Kunde bin und sage, hey, ich rechne hiergegen. Es gibt mittlerweile auch Benchmarks, wie viele, sag ich mal, Token Throughput oder Latency du erreichen kannst auf den verschiedenen Nvidia-Chips oder auch anderen Chips und dann kannst du klar einfach Businessmodell Mathe-mäßig rechnen. Man weiß aber, dass oder interessanterweise ist, dass DeepSeek auf der Deep Seek-Cloud oder Plattform, wie auch immer sie es nennen, am günstigsten angeboten wird.

SPEAKER_01

Okay, das wäre nämlich jetzt die nächste Frage gewesen, ob man irgendwie ein Gefühl dafür hat, was gängige Kosten sind, wenn es nicht über die offizielle ist.

SPEAKER_00

Ja, also es ist schon relativ ähnlich. Together hat jetzt ich es gerade hier auf Open Router 4,4 Dollar pro Output. Dann hast du ganz viele kleineren Provider, ich weiß jetzt nicht, wie stabil die sind, die haben dieselben Preise wie DeepSeek. Aber klar, wenn ich irgendwie über Open Router gehe, dann ist es mir am Ende egal. Und der Average Output Price sind 2 Dollar und 1 Dollar. Aber das sind inkludiert, ich glaube, auch Flash und DF. Auf jeden Fall ist der sehr günstig. Und ich glaube, wenn man halt irgendwie kein Coding-Agen nutzt, sondern normale Anwendungen baut, irgendwas Data Processing oder andere Dinge, dann definitiv vielleicht mal anschauen und durchtesten.

SPEAKER_01

Cool. Sehr gut. Ich wollte nochmal ein Video empfehlen von einem Interview mit Andre Caparthy. Und der Titel davon war ein bisschen From Wipe Coding to Agentic Engineering. Er ist ja auch derjenige, der irgendwie den Begriff Wipecoding so ein bisschen geprägt hat damals und ins Spiel gebracht hat und wo es jetzt eben darum geht, okay, zu verstehen oder zu gucken, so wo stehen wir denn aktuell in der Softwareentwicklung und was sind da so die nächsten Schritte. Und das sind, ja, es ist ein kurzweiliges Interview, sind glaube ich 30 Minuten, was man sich mal gut angucken kann, weil er auch, finde ich, ganz schöne Beispiele dafür bringt, so wie man zukünftig vielleicht eher über Softwareentwicklung nachdenken muss und was so ein bisschen da noch dann die nächste Stufe ist, wo er irgendwie so sagt, okay, hey, Vibecoding macht es eigentlich so breiter, also den Zugang breiter. Das heißt, es ist einfach die Basis an Leuten, die sich kleine Apps, irgendwelche Helferleien und sowas erstellen können, die ist einfach viel, viel größer geworden und hat da die Bar einfach nach oben gebracht durch. Und dann gibt es trotzdem nochmal irgendwo halt für die, die sich damit auskennen, weil du ja irgendwo trotzdem sichere Software bauen musst, so in den meisten professionellen Kontexten und wo eben vielleicht so ein Bibecoding und ich mache das mal schnell irgendwo dann auch an die Grenzen geht, dann eben die Idee, okay, wie kann man das in der heutigen Zeit mit Agenten halt möglichst gut machen. Und wo er sich auch selbst erwischt hat, irgendwie, dass er da teilweise noch einfach in so alten Pragmatismen irgendwie drin hängt. Und ein Beispiel, was er gemacht hat. Er hat ein Tool gebaut, was, wenn er essen geht, er die Menükarte abfotografieren kann und die parst es dann mit OCR und generiert dann zugeben der Menüeinträge ein Bild, sodass er sich halt irgendwie vorstellen kann, wenn er in anderen Ländern unterwegs ist oder wie auch immer, der die Gerichte nicht kennt, dass er so eine Vorstellung hat, natürlich nicht, wie das in dem Restaurant aussieht, das Essen, aber wie das generisch aussieht. Und hat dann gesagt, naja, das ist eigentlich irgendwie ein sehr altes, altes Bild gewesen, sozusagen, okay, ich baue mir eine App, die jetzt diesen Fall hat. Denn danach hat er einfach, ich glaube, Gemini hat er genutzt, hat halt einfach in Gemini die Menükarte reingepastet und hat gesagt, hey, generieren wir mal Bilder für die Karte, wo dann im Hintergrund halt mit Nano Banana der Agent praktisch das alles zusammengebaut hat und auf das Originalfoto, was er hatte, einfach die Bilder von den Gerichten draufgepackt hat und wo er gesagt hat, ja, das ist halt der Schritt, wo das dann noch irgendeine Stufe weitergeht, wo man vielleicht auch als Softwareentwickler oft dann nicht darüber nachdenkt, dass es halt diese Möglichkeiten gibt und der eher halt irgendwie auch, wenn es um Infrastruktur geht oder so, eher halt gerne einen Prompt haben möchte, dem er einen Agenten gibt und nicht ein Installier mal oder tipp diese Zeile ein in der CLI, um irgendwas zu machen, sondern ich möchte irgendwie eine Anweisung haben. Das sind die Rahmenbedingungen, die gebe ich einem Agenten und der setzt es halt für mich um. Ja, da so zwei kleine Beispiele daraus, aber auch ein paar ganz gute Sachen. Ich glaube, er endet auch mit einem Zitat, you can outsource your thinking, but you can't outsource your understanding. Wo er eben auch so sagt, okay, es braucht trotzdem noch jemanden, der da so ein bisschen die Einordnung und die Logik und die Gedanken und warum irgendwie außenrum hat. Und das ist, okay, wie setze ich es um und was sind die Rahmenbedingungen oder woran muss ich alles denken, das sind eben Sachen, die ganz gut übernommen werden können.

SPEAKER_00

Ja, ich bin mal gespannt, ob das halt das Problem in langer Zukunft wird. Wir haben ja ganz am Anfang kurz über Einstellen von Junior-Entwickler geredet. Und ich meine, jemand, der schon, sag ich mal, jemand, der programmieren gelernt hat, bevor AI-Coding da war, hat ja hoffentlich viel von diesem Understanding. Deswegen sind wir relativ schnell produktiv gewesen mit den Agents. Aber wenn halt das Understanding irgendwann verloren geht oder wenn man es sich schwerer tut, dieses aufzubauen, weil ich halt einfach ein bisschen betrügen kann und einfach reinhacke und schaue, was rauskommt und wenn es funktioniert, dann geht schon, bin ich mal gespannt, wo wir in zwei bis drei Jahren sind.

SPEAKER_01

Ja, in meinem Kopf ist immer noch so eine klaffende Lücke, oder wo ich keine Antwort darauf habe, so ist auch, was soll man studieren beispielsweise? Also ich glaube, Also ich würde halt heute niemandem nach der Schule empfehlen, Informatik zu studieren. Ich glaube, dass das nicht sinnvoll wäre. Und trotzdem glaube ich, dass einem ein Studium schon irgendwie was gebracht hat, um diese logischen Angehensweisen, um das Abwägen von Quellen, um, also ich meine, da haben wir kritisches. Ja, also, ne, ja, irgendwas hat man ja da schon gemacht, aber ich weiß noch nicht so richtig, was man das in einer Realität umsetzen soll. Ist das irgendwie ein allgemeiner Studiengang zu Intelligenz, Intellekt, keine Ahnung. Oder wie kann man das halt trotzdem irgendwie fördern, dass man diese Erfahrung hat, selbst wenn man halt dann nicht irgendwie in dem Studiengang die Grundlagen von C lernt. Ja. Naja, mal sehen.

SPEAKER_00

Cursor SDK hast du noch mitgebracht. Genau, ganz kurz, ganz, ganz schnell. Cursor kennen wir ja Coding Editor IDE eigentlich, hat auch eine CRI released vor ein paar Monaten und hat jetzt ihre eigene SDK-Released. Vom Konzept her sehr ähnlich zu Cloud Agents SDK oder zu, sag ich mal, der OpenAI Agents SDK mit ihrem Sandbox-Environment. Ich habe einen Agent, den ich importieren kann, den kann ich erstellen, dem kann ich sagen, welches Modell er nutzen soll, welche Tools er hat und wo das Working Directory ist. Und dann kann ich ihn einfach prompten und der Agent fängt an und macht dieselben Dinge eigentlich wie mein Editor. Was besonders interessanter ist, ist, er nutzt denselben Agent Harness. Das heißt, wenn ihr irgendwie Cursor bevorzugt als Coding-Environment, könnt ihr jetzt programmierbar, äh, nicht programmieren, also nicht den Podcast, sondern halt programmiertechnisch die SDK nutzen. Sie sagen, es ist für zum Beispiel CIs ganz interessant, wenn ich irgendwie halt irgendwelche Dinge mit einem Agent automatisiert testen möchte. Sie haben auch coole Cookbooks, wo man einen App-Bilder zum Beispiel selber baut, also im Sinne von so ähnlich wie Lovable, halt als Anwendung umsetzen kann, wo dann der Agent drin ist, die ich dann für meine Mitarbeiter bereitstellen kann, wenn ich trotzdem noch bevorzuge, eine App zu bauen. Das heißt, dass ich einfach die Intelligenz oder den Agent aus der IDE rausziehen kann und halt in die Umgebungen packen, die ich bevorzuge, könnte ein Slack-Gannel sein, könnte, keine Ahnung, welches Tool ihr auch immer nutzt. Er hat zwei, sage ich mal, Ausführungsmodis, was ihn ein bisschen unterscheidet zu allen anderen Agents-SDKs, die wir bisher gesehen haben. Wenn ich zum Beispiel ja die Cloud Agent-SDK nutze oder andere, dann ist es ja oftmals einfach in dem Environment, wo der Agent an sich oder das Binary läuft. Das heißt, wenn ich irgendwie Read-File mache, dann macht er das auf dem Client, oftmals irgendwie den lokalen PC oder so, den wir ausführen. In der Cursor SDK hat man aber auch die Möglichkeit, Cloud als Environment anzugeben. Das heißt, ich kann ein GitHub-Repository definieren, wenn ich meine Agent-SDK erstelle und halt sagen, das soll in der Cloud laufen. Dann führe ich das, starte ich das lokal, aber der Agent sozusagen startet eine Cloud-VM, wo er dann das Repository herunterlegt, da die Aufgaben macht und dann halt wieder die Events klar zu dem Client zurückstreamt, aber Read for File, Write-File, irgendwelche Bash-Commands laufen, ist nicht in derselben Umgebung, was relativ interessant ist, ist, weil das so ein, ich sag mal, ein bisschen ein Mix auf der Cloud Agents SDK und Cloud Managed Agents und ich glaube, wir werden da halt noch viel mehr sehen, aber sie haben halt so ein Single Interface, das heißt, ich kann irgendwie lokal Dinge testen oder kann super schnell mit demselben Interface irgendwas in der Cloud starten, was ich glaube, was sehr interessant sein kann, wenn ich irgendwelche Dinge selber baue und das halt nativ in meine App integriere.

SPEAKER_01

Okay.

SPEAKER_00

Und ich kann natürlich jedes Modell nutzen, was ein Cursor zur Verfügung steht. Ich kann ein API-Key auf meinem Cursor-Dashboard generieren. Aktuell ist es nur, also Token ist Pay per Use.

SPEAKER_01

Ja. Okay. Ich überlege gerade so. Du hast ja ein zwei Use-Kase gesagt. Weil es brennt mir jetzt, wenn ich das höre, nicht so selbst unter den Fingernägeln zu sagen, okay, das ist das nächste Ding, was ich jetzt ausprobieren muss, um so die Tasks umzusetzen oder die Sachen zu machen, die ich gerade mache.

SPEAKER_00

Also als Cookbook, so ein Beispiel-Anwendungen haben sie ein Kanban-Board. Das heißt, ich habe eine UI-Anbindung, ein bisschen so ähnlich wie Trello, und anstelle, dass ich mein Editor-Prompt oder mein Chat-Interface-Prompt, da stelle ich Trello-Tasks, die dann der Agent aufsammelt und anfängt umzusetzen. Dieser App-Bilder, dass ich halt einfach wie, sag ich mal, Lovable oder wie auch immer halt ein Ding habe, das halt Anwendungen bauen kann. Sie haben eine kleine Coding-CLI gebaut, wie du die SDK nutzen kannst, um deine eigene CLI halt zu bauen. Dann haben sie noch einen Deck-Taskrunner und halt ein kleines Quick Start. Also ich glaube, es geht halt wirklich, es ist immer noch alles immer sehr coding-orientiert, wie wir Dinge bauen, wofür wir die nutzen und halt nicht irgendwie in einem Open-Claw-Horizont. Aber ich meine, an sich könntest du auch einen Open Claw-Version mit Cursor bauen, wo du halt einfach dieses Skateway boust, das dann Telegram- oder WhatsApp-Nachrichten liest und Dinge irgendwo ausführt und dann dir wieder antwortet.

SPEAKER_01

Kannst du sowas in der Art noch laufen aktuell? Nee. Also jetzt nicht privaten. Naja, 2026 kommen wir da noch hin. Ende wieder mit Google, das eben im Vorgespräch hätten wir es nämlich, weil Google Cloud Next haben wir gestern noch eine Folge offen gewonnen, da Jan ja dort war vor Ort und ich ein bisschen enttäuscht war und sagte, da war ja jetzt gar nichts Großes aus der AI-Welt, was man irgendwie mitgeschnitten hat, was von Google kam. Aber die Google I.O, hat Philipp mir dann gesagt, ist auch gar nicht so weit weg in zwei Wochen. Vielleicht gibt es ja da dann nochmal was aus dem Hause Google, über das wir Spräuchen sprechen können. Genau, sonst haben wir intern hier bei Lotum nächste Woche auch wieder unsere vierte AI Week, wo wir uns alle Zeit nehmen, zu explorieren und zu gucken und zu bauen. Vielleicht haben wir da auch zwei, drei Themen, die wir dann das nächste Mal nochmal mitnehmen können. Philipp, vielen Dank für deine Zeit und dass du wieder hier bei uns warst, bei uns bist. Und dann wünschen wir allen eine schöne Zeit und bis bald. Macht's gut. Ciao. Ciao.