Wenn die API ausfällt, sind alle arbeitslos

Wie abhängig sind wir jetzt schon von Claude Code und anderen Programmieragenten? Hier in Australien haben wir den großen Vorteil, dass es Zeiten gibt, in denen die Menschen in den USA und in Europa schlafen. Das sind nur ein paar Stunden, aber man merkt sofort, wenn etwas mehr Platz im Internet ist, sich nicht alles so knubbelt. Dann geht es mit dem Programmieren in Claude Code viel flotter und ich habe wirklich das Gefühl, dass das Modell dann schlauer und weniger belastet ist.

Mit dem großen Erfolg von Claude Code kommen auch die Überlastungen und die API-Fehler. Nichts geht mehr weiter. Das zeigt die große Abhängigkeit in einer Programmierwelt, in der auch die besten Coder kaum noch nachvollziehen können, was Claude Code blitzschnell fabriziert hat.

Das ging schnell: Vor vielleicht drei Monaten schien alles noch eine große Harakiriaufgabe zu sein, doch jetzt sind wir wieder einen gewaltigen Schritt weiter. Mittlerweile verlassen wir uns immer mehr auf die Modelle, die sofort merken, wenn sie auf einen Fehler stoßen und ihn auch gleich reparieren. Kein Wunder, dass sich nun viele Leute in das Thema „agentisches Programmieren" stürzen. Es reicht, eine Idee zu haben, und dann kann man alles bauen, oder? Das fühlt sich so an wie 1998. Und gleichzeitig ganz anders. Irgendwie ernster, weniger spielerisch.

Wir verlassen uns immer mehr auf die Agenten. Aber was passiert, wenn die Modelle ausfallen, weil es einen Stau gibt oder der Provider gehackt wird? Dann fällt die Fassade und offenbart die absolute Abhängigkeit. Dann sitzen alle auf halbfertigen Code-Schnipseln und können nur noch die Arme in die Luft werfen.

Genau deswegen solltest du dir genau überlegen, wie viel du den Agenten gibst, auch wenn die so unglaublich schlau sind, und ob du nicht einige Arbeiten an lokale Modelle auslagern kannst, die zuverlässig und fleißig auf deinem eigenen lokalen Server laufen können.

Ich habe hier fünf bis sechs Projekte, die hier auf meinem Mac Mini laufen. Sie crawlen, scrapen, rechnen, schicken mir E-Mails mit Anweisungen und synchronisieren sich mit meinen Websites. Manche Projekte setzen auf die SDK von Anthropic auf (sie sind mit meinem Max-Konto von Anthropic verbunden, kosten also nicht zusätzlich API-Token)
Alle Projekte, an denen ich arbeite, müssen so aufgebaut sein, dass ich vier Wochen in den Urlaub kriegen gehen könnte und es läuft einfach weiter. Eine meiner am meisten genutzten Anweisungen in Claude Code ist „it needs to be set and forget, test and validate all edge cases". Zudem habe ich Agenten aufgesetzt, die nicht nur melden, dass beispielsweise der Crawler nicht mehr richtig funktioniert, sondern auch gleich versuchen, das selbst zu lösen.

Die Agenten helfen mir dabei, die fragilen Scrape-Pipelines immer wieder zu reparieren. Das ist spannend, zeigt aber auch, dass das Scrapen recht fragil ist. Wer sein Businessmodell darauf aufbaut, steht immer wieder vor Problemen. Idealerweise sitzt man auf Daten, die es sonst nicht gibt und erstellt Signale, die sonst keiner errechnen kann.

Wer abhängig ist von anderen Datenaggregatoren oder auch nur von OpenAI, Gemini, Anthropic, muss sich auf den Dienst hundertprozentig verlassen können. Das ist ein gefährliches Spiel, denn die Intelligenz der Dienste steckt im Aufruf der API. Ist der Zugang gesperrt oder funktioniert schlichtweg nicht, geht alles sofort den Bach runter. Deswegen gilt auch hier: Abhängigkeiten so gut zu vermeiden wie möglich, anbieter- und modellagnostisch entwickeln, so schwer das auch ist.


Anmerkungen: 0,3948 SHA-256 90ff8b4120a6b9869d74
&Schreibwerkzeuge: 0 9 53 154 267 285 298 301 312 414 630,4 789 1585 1605 2178 2264 2448,2 3098
@Reiner Gärtner : 10,43 155,112 286,12 302,10 408,5 1675,69