AI REWRITE - Wie AI alles neu erfindet !

AI REWRITE - Wie AI alles neu erfindet !

Die wunderbare Welt der AI

Clawdbot: Der Open-Source KI-Assistent, der direkt in deinen Chat-Apps arbeitet

Clawdbot: Der Open-Source KI-Assistent, der direkt in deinen Chat-Apps arbeitet

Clawdbot wird als Open-Source-Ansatz für einen „Always-on“-KI-Assistenten vorgestellt, der nicht in einer separaten Weboberfläche lebt, sondern direkt in bestehenden Messenger- und Team-Chats antwortet. Statt zwischen Apps zu wechseln, läuft der Agent dauerhaft im Hintergrund und kommuniziert in Kanälen wie WhatsApp, Telegram, Slack, Discord, Signal oder iMessage. Der zentrale Anspruch ist lokale Kontrolle: Clawdbot kann auf eigenen Geräten oder auf einem eigenen Server betrieben werden und wird damit zu einer längerfristig betriebenen Assistenz-Instanz, die auch systemnahe Aufgaben übernehmen kann, sofern man diese Zugriffe bewusst freigibt. Dazu zählen Dateizugriffe, Shell-Kommandos, Programmaufrufe sowie eine live steuerbare Canvas-Ansicht als visuelle Arbeitsfläche.

In der Praxis zielt das Setup auf kontinuierliche Assistenz im Alltag und in Teams: Posteingänge sortieren, E-Mails vorbereiten oder versenden, Kalender pflegen, Erinnerungen setzen, Recherche erledigen und wiederkehrende Abläufe automatisieren. Ergänzt wird das durch Browser-Automation, bei der der Agent Websites öffnet, Informationen findet, Formulare ausfüllt und Daten extrahiert. Der Nutzen hängt dabei stark an sauber begrenzten Berechtigungen, stabilen Integrationen und der Frage, ob man tatsächlich einen rund um die Uhr laufenden Agenten braucht. Als typische Betriebsform wird ein stromsparender „Always-on“-Rechner wie ein Mac mini genannt, alternativ sind macOS, Windows und Linux sowie der Betrieb auf einem VPS möglich.

Ein weiterer Schwerpunkt sind Erweiterungen über ein Skills-System und ClawdHub als öffentliches Skill-Register. Damit sollen Integrationen und Workflows modular nachinstallierbar werden, etwa für Kalender, Projektmanagement, Mail-Flows oder Smart-Home-Anbindungen, statt alles individuell zu bauen. Gleichzeitig wird betont, dass solche Integrationen oft zusätzlichen Auth-Aufwand bedeuten und sich je nach Dienst riskant anfühlen können, weil ein Agent mit weitreichenden Accounts und Sessions arbeitet. Auch bei Social- und Web-Workflows setzen Bot-Erkennung, Login-Flows und wechselnde Website-Strukturen Grenzen; Browser-Automation wirkt als Orchestrierungsschicht, ersetzt aber nicht die Robustheit offiziell gepflegter APIs.

Beim Modell-Setup ist Clawdbot nicht auf einen Anbieter festgelegt. Je nach Konfiguration können unterschiedliche Provider und Modelle pro Agent oder Session genutzt werden, was Flexibilität schafft, aber den Einrichtungs- und Sicherheitsaufwand erhöht, weil Schlüssel, Policies und Tool-Rechte konsistent gepflegt werden müssen. Besonders wichtig sind dabei Sicherheitsmechanismen gegen untrusted Input aus Chats, Sandboxing und Tool-Policies, da ein Messenger-Interface den Agenten in eine Umgebung bringt, in der Missbrauch und Prompt-Injection realistischer werden. Der Vergleich zu klassischen Claude-Setups und MCP wird als Abgrenzung formuliert: Während Claude in der Herstelleroberfläche bleibt und MCP dort Tool-Zugriffe standardisiert, verlegt Clawdbot den Einstieg in Messenger-Apps und kombiniert das mit Self-Hosting, lokalen Tools, Skills und Zeitplänen (Cron). Damit verschiebt sich das Konzept vom reinen Chat hin zu einem konfigurierbaren Assistenzsystem, das wie Software betrieben wird und dauerhaft im Hintergrund Aufgaben abarbeitet.

Quellen:
Clawdbot/clawdbot (GitHub) https://github.com/clawdbot/clawdbot
ClawdHub (Clawdbot Docs) https://docs.clawd.bot/tools/clawdhub
Baileys (WhatsApp Web API library) https://github.com/WhiskeySockets/Baileys
grammY (Telegram Bot Framework) https://github.com/grammyjs/grammY
AI companies want a new internet - and they think they've found the key (The Verge) https://www.theverge.com/ai-artificial-intelligence/841156/ai-companies-aaif-anthropic-mcp-model-context-protocol
Anthropic's official Git MCP server had some worrying security flaws - this is what happened next (TechRadar) https://www.techradar.com/pro/security/anthropics-official-git-mcp-server-had-some-worrying-security-flaws-this-is-what-happened-next

KI im Alltag: Humanoide Roboter, Desktop-Agenten und Offene Modelle

In dieser Episode verdichten sich mehrere parallele Trends, die zeigen, wie KI in Richtung Alltagstauglichkeit und Plattformmacht kippt. Im Robotics-Block rückt Manipulation als Engpass in den Vordergrund: Das chinesische Startup Matrix Robotics präsentiert mit MATRIX-3 einen dritten Prototypen mit biomimetischer, gewebter „Haut“, hochauflösender taktiler Sensorik an den Fingerspitzen und einer 27-DoF-Hand, was vor allem feinmotorische Alltagsaufgaben beschleunigen könnte. Gleichzeitig verschiebt 1X das Skalierungsproblem beim Training humanoider Roboter: Statt starkem Teleoperation-Overhead soll ein Weltmodell Neo aus eigenen Robotervideos lernen, sodass Lernfortschritt stärker mit der Zahl eingesetzter Roboter als mit der Zahl menschlicher Operatoren wächst. Am Desktop werden Agenten breitentauglich: Anthropic startet Claude Cowork als Research Preview auf macOS, explizit für Nicht-Entwickler, mit lokalem Ordnerzugriff und Multi-Step-Ausführung, allerdings mit klar benannten Risiken wie unklaren Anweisungen, versehentlichem Löschen und Prompt-Injection, weshalb kontrollierte, abgegrenzte Workflows zentral bleiben. Bei Übersetzung verschiebt sich die Wertschöpfung Richtung lokale Setups: Google veröffentlicht mit TranslateGemma offene Übersetzungsmodelle (4B/12B/27B) für 55 Sprachen, was Übersetzung stärker on-device oder in compliance-freundlichen Umgebungen möglich macht; gleichzeitig wird Kontext als Qualitätsfaktor betont, passend zur „Jagged Technological Frontier“-These aus der Harvard/BCG-Forschung, wonach KI-Leistung je nach Aufgabentyp abrupt schwankt. Standards und Ökosysteme werden wichtiger: Google stellt mit dem Universal Commerce Protocol (UCP) einen offenen Standard für agentisches Commerce über die gesamte Journey vor, während Open Responses als offene Spezifikation für interoperable LLM-Interfaces an der Responses-API angelehnt Portabilität zwischen Providern adressiert. Auf der Compute-Seite wird Latenz zur Leitmetrik: OpenAI kündigt eine Partnerschaft mit Cerebras an, um 750 MW Ultra-Low-Latency-Compute schrittweise bis 2028 in den Inferenz-Stack zu integrieren. Bei Plattformen zeigen sich neue Machtachsen, etwa durch Apples Bestätigung, dass Google Gemini die nächste Siri-Generation und weitere Apple-Intelligence-Funktionen mit antreiben soll. In Europa signalisiert der Führungswechsel bei Aleph Alpha eine Neuordnung von Governance und Go-to-Market. Forschung und Talent runden das Bild ab: OpenAI beteiligt sich an der Seed-Runde von Merge Labs für weniger invasive BCI-Ansätze, während Personalbewegungen wie Abgänge bei Thinking Machines Lab zurück zu OpenAI die Volatilität im Spitzen-Talentmarkt unterstreichen. Meta beendet zudem Horizon Workrooms zum 16. Februar 2026, was den Rückzug aus metaverse-orientierten Work-Setups und die Verlagerung Richtung Wearables und KI-Brillen markiert. Insgesamt entsteht ein praktisches Muster: mehr agentische Produktflächen, mehr Standardisierung, mehr Fokus auf Latenz und Deployment-Kontrolle – bei gleichzeitig wachsender Notwendigkeit, Risiken in Datenzugriff und Ausführung eng zu begrenzen.

Quellen:
MATRIX-3 | Third-generation flagship humanoid robot — https://www.matrixrobotics.ai/matrix-3
An OpenAI-backed humanoid robot startup says it's moving away from using humans to train its Optimus rival (Business Insider) — https://www.businessinsider.com/1x-humanoid-robot-training-humans-world-models-optimus-rival-2026-1
Getting Started with Cowork | Claude Help Center — https://support.claude.com/en/articles/13345190-getting-started-with-cowork
Anthropic wants you to use Claude to 'Cowork' in latest AI agent push (The Verge) — https://www.theverge.com/ai-artificial-intelligence/860730/anthropic-cowork-feature-ai-agents-claude-code
TranslateGemma: A new family of open translation models (Google) — https://blog.google/innovation-and-ai/technology/developers-tools/translategemma/
Navigating the Jagged Technological Frontier (Digital Data Design Institute at Harvard) — https://d3.harvard.edu/navigating-the-jagged-technological-frontier/
Under the Hood: Universal Commerce Protocol (UCP) (Google Developers Blog) — https://developers.googleblog.com/under-the-hood-universal-commerce-protocol-ucp/
Open Responses — https://www.openresponses.org/
OpenAI partners with Cerebras (OpenAI) — https://openai.com/index/cerebras-partnership/
Apple Confirms Google Gemini Will Power Next-Generation Siri This Year (MacRumors) — https://www.macrumors.com/2026/01/12/google-gemini-next-generation-siri/
Aleph Alpha: Gründer Jonas Andrulis gibt Chefposten ab (Handelsblatt) — https://www.handelsblatt.com/technik/ki/aleph-alpha-gruender-jonas-andrulis-gibt-chefposten-ab/100161686.html
Investing in Merge Labs (OpenAI) — https://openai.com/index/investing-in-merge-labs/
Meta has discontinued its metaverse for work, too (The Verge) — https://www.theverge.com/tech/863209/meta-has-discontinued-its-metaverse-for-work-too
Two Thinking Machines Lab Cofounders Are Leaving to Rejoin OpenAI (WIRED) — https://www.wired.com/story/thinking-machines-lab-cofounders-leave-for-openai

KW 4 - Vertigo der Transformation

Die Episode zeichnet ein Bild eines beschleunigten Strukturbruchs: Exponentielle Fortschritte bei KI-Modellen, Robotik und Energie treiben einen Wandel, der Softwareentwicklung und Wissensarbeit industrialisiert. Autonome Agenten verschieben die Grenze dessen, was Einzelne und kleine Teams leisten können; Aufgaben, für die früher ganze Abteilungen Jahre brauchten, werden in Stunden oder Tagen abgearbeitet. Daraus folgt ein Karriere-Narrativ, in dem klassische Berufsprofile erodieren und gleichzeitig neue Job-Familien entstehen. Entscheidend wird unternehmerisches Denken: Solopreneurship und extrem schlanke, agenten-gestützte Unternehmen rücken ins Zentrum, während formale Bildungswege als Job-Ticket an Bedeutung verlieren.

Für Unternehmen lautet die Kernaussage: Anpassung ist kein Jahresprojekt mehr, sondern Wochenrhythmus. Kontinuierliche Verbesserung, schnelle Kurswechsel und operative Paranoia werden als Überlebensprinzip beschrieben. Gleichzeitig verschiebt sich das Machtzentrum der KI-Ökonomie hin zu Hardware und Energie: Der „inner loop“ aus Strom, Compute und Lieferketten wird zum Engpass. Der steigende Bedarf an High-Bandwidth-Memory und Hochleistungs-GPUs trifft auf Fertigungs- und Packaging-Limits; daraus erwachsen Strategien der vertikalen Integration, bei denen KI-Anbieter und Chipfirmen eigene Siliziumpläne, Racks und Infrastruktur von Grund auf mitgestalten.

Die Infrastrukturseite wird als neue Größenordnung skizziert: Rechenzentren wachsen zu „AI-Factories“ mit extremem Energiehunger und Capex-Logik, die neue Finanzierungs- und Geschäftsmodelle erzwingt. Der Markt muss eine Zahlungsbereitschaft für teure Inferenzzeit finden, sonst kippt die Investitionsrechnung. Energie wird dabei zum globalen Standortfaktor und zur geopolitischen Engstelle: Länder mit Talent treffen auf Länder mit Energieüberschuss und schnellerem Ausbau, was eine langfristige Bifurkation der Wettbewerbsfähigkeit nahelegt.

Auch die Mensch-Maschine-Interaktion verändert sich: Statt Suchbox dominiert zunehmend eine Aktionsschnittstelle, die Aufgaben ausführt. Webseiten als Standardoberfläche werden infrage gestellt; an ihre Stelle könnten agentenfähige Protokolle und Standards für Commerce und Transaktionen treten, die Käufe, Identität und Order-Workflows direkt in Konversationen abwickeln. Mit wachsender Autonomie steigt zugleich die Haftungs- und Governance-Frage: Kurzfristig wird Verantwortung bei den betreibenden Firmen verortet, langfristig wird eine Debatte über Rechte, Pflichten und Haftung autonomer Systeme antizipiert.

Als Endpunkt wird eine Zukunftsachse aus Superintelligenz und Energieüberfluss beschrieben. Kurzfristig bleibt die Ökonomie kapitalistisch geprägt, mit Kapital als Ersatz für Arbeit; langfristig wird eine radikal neue, post-knappheitsorientierte Ordnung als mögliches Zielbild skizziert, das Lieferketten, Institutionen und Verteilung neu austariert.

Quellen:
Global Energy Review 2025 – Electricity (IEA) – https://www.iea.org/reports/global-energy-review-2025/electricity
Electricity Mid-Year Update 2025 – Executive summary (IEA) – https://www.iea.org/reports/electricity-mid-year-update-2025/executive-summary
Computer Industry Joins NVIDIA to Build AI Factories and Data Centers for the Next Industrial Revolution (NVIDIA, 2 Jun 2024) – https://investor.nvidia.com/news/press-release-details/2024/Computer-Industry-Joins-NVIDIA-to-Build-AI-Factories-and-Data-Centers-for-the-Next-Industrial-Revolution/default.aspx
NVIDIA and Intel to Develop AI Infrastructure and Personal Computing Products (NVIDIA, 18 Sep 2025) – https://investor.nvidia.com/news/press-release-details/2025/NVIDIA-and-Intel-to-Develop-AI-Infrastructure-and-Personal-Computing-Products/default.aspx
Universal Commerce Protocol (UCP) – https://ucp.dev/
Commerce Agent Protocol (CAP) – https://cap-spec.org/
OpenAI shows off Stargate AI data center in Texas and plans 5 more elsewhere with Oracle, Softbank (AP News) – https://apnews.com/article/0b3f4fa6e8d8141b4c143e3e7f41aba1
The Global Memory-Chip Shortage Will Cost Us All (Wall Street Journal) – https://www.wsj.com/tech/ai/memory-ram-shortage-2026-f55324b0

Absicht statt Code: Die neue Mitte der Softwarearbeit

Agentische Workflows verschieben gerade spürbar den Schwerpunkt in der Softwareentwicklung. Statt dass der größte Aufwand zwischen Idee und fertigem Produkt im manuellen Übersetzen von Absicht in Code liegt, erzeugen Agenten zunehmend lauffähige Implementierungen aus Zielen, Kontext und klar geschnittenen Aufgabenpaketen. Dadurch verändert sich die Rolle der IDE: Sie wird stärker zum Ort für Nachvollziehen, Prüfen und Absichern von Änderungen, während das händische Schreiben jeder Zeile seltener zur knappsten Ressource wird.

Im Zentrum rückt die Arbeit an Klarheit. Teams investieren mehr Zeit in saubere Problemdefinition, das Sammeln relevanten Kontexts aus Kunden- und Systemwissen, das Zerlegen von Arbeit in ausführbare Einheiten und das präzise Formulieren von Inputs, weil vage Anweisungen oft breit, teuer und am Ziel vorbei führen. Design meint hier weniger Artefakte, sondern das systematische Herstellen von Eindeutigkeit, inklusive Trade-offs, Randbedingungen und messbaren Abnahmekriterien. Steuern von Agenten wird damit zur Kernkompetenz: Programmieren ähnelt weniger dem manuellen Konstruieren, sondern dem Aufsetzen der Bedingungen, unter denen gute Lösungen entstehen, etwa über Standards, Anforderungen, Abnahmen und kontextfähige Dokumentation.

Parallel dazu wächst das Ökosystem rund um Kontext-Orchestrierung und Tool-Auswahl. Offene Standards wie das Model Context Protocol (MCP) sollen die Anbindung von Modellen an Tools und Datenquellen vereinheitlichen und so Agenten in größeren Tool-Landschaften zuverlässiger navigieren lassen. Forschung zur „Agent Web“-Idee greift Router-Ansätze auf, um Tool-Routing skalierbarer und robuster zu machen. Mit höherem Output steigt zugleich der Druck am Ende der Kette: Review, Tests, Sicherheit und Releases müssen mit der Änderungsfrequenz Schritt halten, weshalb Qualitätssicherung stärker in den Gesamtfluss integriert werden muss, statt als letzter Engpass zu funktionieren.

Quellen:
OpenAI co-founds the Agentic AI Foundation under the Linux Foundation (AGENTS.md) — https://openai.com/index/agentic-ai-foundoundation//
Linux Foundation Announces the Formation of the Agentic AI Foundation (AAIF) (MCP, goose, AGENTS.md) — https://aaif.io/news/linux-foundation-announces-the-formation-of-the-agentic-ai-foundation-aaif-anchored-by-new-project-contributions-including-model-context-protocol-mcp-goose-and-agents-md/
Anthropic launches tool to connect AI systems directly to datasets (Model Context Protocol) — https://www.theverge.com/2024/11/25/24305774/anthropic-model-context-protocol-data-sources
Roadmap – Model Context Protocol — https://modelcontextprotocol.io/development/roadmap
ToolACE-MCP: Generalizing History-Aware Routing from MCP Tools to the Agent Web (arXiv) — https://arxiv.org/abs/2601.08276

Die Ära der handelnden KI-Agenten

Der Podcast beschreibt einen Paradigmenwechsel von klassischen Chatbots hin zu KI-Agenten, die direkt in der täglichen Arbeitsumgebung sitzen und nicht mehr nur Antworten liefern, sondern auch an Dateien und Notizen arbeiten. Als Beispiel dient die Kombination aus Anthropics Agenten-Ansatz „Cowork“ (auf Basis von Claude Code) und der Notiz-App Obsidian. Der Kernpunkt: Statt Inhalte mühsam in ein Chatfenster zu kopieren, kann ein Agent – nach Freigabe – auf Ordner zugreifen, Material auswerten, Texte zusammenfassen, Inhalte vergleichen und Ergebnisse direkt wieder in die eigene Wissensablage schreiben. Dadurch bleibt Kontext erhalten, und die KI wird vom Gesprächspartner zum ausführenden Mitarbeiter.

Im Zentrum steht ein „dauerhaftes Gedächtnis“ über Projektregeln und Arbeitsgrenzen, umgesetzt über die Datei CLAUDE.md, die der Agent bei jedem Start einliest. Ergänzend strukturieren Slash-Commands wiederkehrende Abläufe, etwa tägliche Planung, Notiz-Zusammenfassungen oder Konsistenzchecks zwischen Aussagen und Quellen. Obsidian passt in dieses Bild, weil Notizen als lokale Markdown-Dateien in einem frei zugänglichen Ordner liegen und damit ohne proprietäres Format als Arbeitsgrundlage für Agenten taugen. Der Podcast betont drei Nutzungsfelder: systematische Pflege der Wissensbasis (inklusive Verlinkungen), Automatisierung von Routinen und Forschungssynthese, bei der Widersprüche sichtbar werden und Rückfragen entstehen, statt nur Kurzfassungen zu produzieren.

Gleichzeitig werden Hürden klar benannt: Die Arbeitsweise erfordert präzise Aufträge statt offener Fragen, die Kosten richten sich eher an professionelle Nutzer, und der Output ist schnell, aber nicht zuverlässig genug, um ohne Kontrolle zu laufen. Kritisch bleibt außerdem der Sicherheits- und Datenschutzaspekt: Auch wenn lokal mit Dateien gearbeitet wird, kann die Verarbeitung je nach Produkt- und Kontomodell dennoch externe Systeme einbeziehen; Prompt-Injection und Fehlaktionen (bis hin zu unerwünschten Dateimanipulationen) bleiben reale Risiken. Als Einordnung wird der breitere Marktrend zu agentischen Systemen beschrieben, während Cloud-Anbieter Agenten in Plattformen integrieren und lokale Setups Datensouveränität versprechen.

Quellen:
Anthropic wants you to use Claude to ‘Cowork’ in latest AI agent push
https://www.theverge.com/ai-artificial-intelligence/860730/anthropic-cowork-feature-ai-agents-claude-code

Slash commands (Claude Code) – Anthropic Docs
https://docs.anthropic.com/en/docs/claude-code/slash-commands

Manage Claude’s memory (Claude Code) – Anthropic Docs
https://docs.anthropic.com/en/docs/claude-code/memory

Claude Code Best Practices – Anthropic Engineering
https://www.anthropic.com/engineering/claude-code-best-practices

How Obsidian stores data – Obsidian Help
https://help.obsidian.md/data-storage

Gartner Predicts 40% of Enterprise Apps Will Feature Task-Specific AI Agents by 2026
https://www.gartner.com/en/newsroom/press-releases/2025-08-26-gartner-predicts-40-percent-of-enterprise-apps-will-feature-task-specific-ai-agents-by-2026-up-from-less-than-5-percent-in-2025

Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027
https://www.gartner.com/en/newsroom/press-releases/2025-06-25-gartner-predicts-over-40-percent-of-agentic-ai-projects-will-be-canceled-by-end-of-2027

KI am Wendepunkt: Healthcare, Robotik und die Zukunft der Arbeit

In dieser Folge verdichten sich fünf parallele Entwicklungen zu einer klaren strategischen Verschiebung: Große Foundation-Model-Anbieter gehen stärker in vertikale Märkte, rücken näher an reale Workflows heran und suchen neue Datenquellen, während Hardware- und Robotik-Stacks eine neue Dynamik Richtung „Physical AI“ bekommen. Im Gesundheitswesen starten OpenAI und Anthropic praktisch im Gleichschritt eigene Healthcare-Linien. OpenAI bringt mit ChatGPT Health eine getrennte Consumer-Erfahrung, die persönliche Gesundheitsdaten aus Apps und teils auch medizinische Unterlagen sicher einbindet und laut Anbieter nicht fürs Modeltraining nutzt. Kurz darauf folgt OpenAI for Healthcare als Enterprise-Angebot mit HIPAA-Orientierung, BAA-Optionen und Integrationen, ergänzt um frühe Partnerschaften mit großen Kliniken. Anthropic zieht mit Claude for Healthcare nach und positioniert das Produkt als HIPAA-konforme Schicht für Provider, Versicherer und Life-Sciences, inklusive Anbindungen an CMS- und Kodierdaten sowie Workflows wie Prior Authorization. Hinter der sichtbaren „KI kommt in die Medizin“-Story steht eine zweite Logik: Healthcare liefert eine belastbare Kapitalmarkt-Erzählung, braucht aber reale Datenflüsse, Compliance und nachweisbare Wirkung. Gleichzeitig verändert diese Vertikalisierung die Marktstruktur, weil Kliniken weniger Gründe haben, spezialisierte Healthcare-KI zuzukaufen, wenn Basismodell-Anbieter direkt die Anwendungsebene besetzen. Der konkrete Nutzenfokus trifft ein Feld mit hohem administrativem Schmerz, etwa Prior Authorizations, die in den USA laut Ärzteverbänden weiterhin zweistellige Stunden pro Woche an Zeit binden und durch neue CMS-Regeln ab 2026 stärker standardisiert werden sollen.

Der zweite Block ist ein Macht- und Paradigmenkonflikt: Yann LeCun verlässt Meta und befeuert die zentrale Debatte, ob Skalierung von Sprachmodellen Richtung Superintelligenz trägt oder ob ein fundamentaler Ansatzwechsel nötig wird. Im Hintergrund stehen Fragen nach Benchmark-Integrität, Organisationsvertrauen und der strategischen Wette, ob „World Models“ und alternative Architekturen gegenüber reiner LLM-Skalierung gewinnen. Praktisch laufen beide Realitäten parallel: agentische Systeme werden besser, Generalisierung bleibt aber fragil, und die Branche bewegt sich ohne endgültigen Beweis weiter nach vorn.

Drittens rückt Physical AI über Robotik und autonome Systeme nach vorn. Nvidia stellt auf der CES die Rubin-Plattform als nächstes Rechenzentrums-Fundament vor und positioniert sich als Full-Stack-Layer für Training, Simulation und Edge-Inference. Parallel kündigen Boston Dynamics und Google DeepMind eine Kooperation an, um Gemini-basierte „Robotics Foundation Models“ mit Atlas-Robotern für industrielle Aufgaben zu verbinden. Entscheidend ist die Rückkopplungsschleife: Roboter ausrollen, Daten im Betrieb sammeln, Modelle verbessern, schneller wieder ausrollen. Ob hier eine ähnliche Skalierungsdynamik wie bei Sprachmodellen entsteht, hängt an embodied data, Simulation-Transfer und leistungsfähiger Edge-Hardware.

Viertens verschiebt sich der Datenkampf. Ein Bericht beschreibt, dass OpenAI in einem Programm mit Handshake AI Auftragnehmer auffordert, reale Arbeitsartefakte aus früheren Jobs hochzuladen, um Agentenleistung gegen menschliche Baselines zu messen. Das ist ein Signal für zwei Trends zugleich: öffentliches Webmaterial wird knapper, und wertvollere Fähigkeiten entstehen eher aus echten Unternehmens-Workflows, Dokumenten und Prozessartefakten. Damit werden interne Datenbestände strategischer, und das Risiko unkontrollierten Abflusses steigt, weil „Scrubbing“ in der Praxis fehleranfällig bleibt.

Fünftens zeigen Builder-Workflows einen Sprung: agentisches Programmieren wird durch parallele Instanzen, wachsende Regeldateien und lange Laufzeiten produktiver, und OpenAI schiebt mit GPT‑5.2-Codex ein stärker auf long-horizon Engineering optimiertes Modell nach. Die Grenze verschiebt sich von „kann Code schreiben“ zu „kann über Tage iterieren, testen und refactoren“. Das macht sichtbar, was in Wissensarbeit noch fehlt: ein harter, automatisierbarer Feedback-Loop wie bei Software. Genau dort entsteht der nächste Produktkampf um sandboxed Arbeitsumgebungen, klare Erfolgskriterien und verlässliche Ausführung über mehrere Schritte.

Quellen:
Introducing ChatGPT Health (OpenAI) https://openai.com/index/introducing-chatgpt-health/
Introducing OpenAI for Healthcare (OpenAI) https://openai.com/index/openai-for-healthcare/
Anthropic expands into healthcare a week after OpenAI launched a similar product (Business Insider) https://www.businessinsider.com/anthropic-chases-openai-ai-heath-claude-2026-1
Boston Dynamics & Google DeepMind Form New AI Partnership to Bring Foundational Intelligence to Humanoid Robots (Boston Dynamics) https://bostondynamics.com/blog/boston-dynamics-google-deepmind-form-new-ai-partnership/
Nvidia launches Vera Rubin AI computing platform at CES 2026 (The Verge) https://www.theverge.com/tech/855412/nvidia-launches-vera-rubin-ai-computing-platform-at-ces-2026
NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer (NVIDIA Investor Relations) https://investor.nvidia.com/news/press-release-details/2026/NVIDIA-Kicks-Off-the-Next-Generation-of-AI-With-Rubin--Six-New-Chips-One-Incredible-AI-Supercomputer/default.aspx
OpenAI Is Asking Contractors to Upload Work From Past Jobs to Evaluate the Performance of AI Agents (WIRED) https://www.wired.com/story/openai-contractor-upload-real-work-documents-ai-agents
AI 'gold rush' for chatbot training data could run out of human-written text (Associated Press) https://apnews.com/article/9676145bac0d30ecce1513c20561b87d
Introducing GPT-5.2-Codex (OpenAI) https://openai.com/index/introducing-gpt-5-2-codex/
Fixing prior auth: First, speed up payers’ response times (American Medical Association) https://www.ama-assn.org/practice-management/prior-authorization/fixing-prior-auth-first-speed-payers-response-times

Claude Code und Cowork: Die Zukunft der agentischen Arbeitsabläufe

Claude Code steht im Zentrum eines neuen Agenten-Hypes, weil es nicht nur „chatten“ lässt, sondern als agentisches Kommandozeilen-Tool direkt im Projektordner arbeitet: Es liest und verändert Dateien, legt neue Artefakte an, führt Befehle aus und setzt Änderungen schrittweise um. Der praktische Reiz liegt in weniger Reibung gegenüber klassischen Chat-Oberflächen, weil Uploads, Downloads und Copy-Paste entfallen und Ergebnisse als nachvollziehbare Dateien im Ordner landen. Dadurch verschiebt sich das Einsatzfeld von reiner Programmierung hin zu allgemeiner Wissensarbeit, solange Aufgaben in Artefakte überführbar sind, etwa wenn aus PDFs, Tabellen oder Notizen automatisch Übersichten, strukturierte Kurzfassungen und To-do-Dokumente entstehen. Technisch adressiert Anthropic die typische Kontext-Überladung agentischer Systeme mit Subagents: spezialisierte Teilagenten mit eigenen Anweisungen, Tool-Rechten und separatem Kontextfenster, sodass der Hauptkontext stabil bleibt. Ergänzend sollen Skills wiederholbare Arbeitsmodule liefern, damit Routinen konsistenter laufen, ohne jedes Mal lange Prompts zu schreiben. Gleichzeitig bleiben Betrieb und Risiko zentral: Claude Code greift lokal auf Dateien zu, das Modell läuft in der Cloud, was Datenschutz- und Kostenfragen verschärft. Für Claude Opus 4.5 nennt Anthropic API-Preise ab 5 USD pro Million Input-Token und 25 USD pro Million Output-Token; Prompt Caching und Batch Processing senken Kosten, aber bei intensiver Nutzung steigt der Verbrauch dennoch. Auch die Abhängigkeit von Plattform-Stabilität wird sichtbar: Am 14. Januar 2026 meldete Anthropic zeitweise erhöhte Fehlerraten rund um Opus 4.5 und Sonnet 4.5. In diese Linie passt Cowork, das Anthropic am 12. Januar 2026 als Research Preview vorstellte: eine zugänglichere, agentische Oberfläche in der Claude-Desktop-App auf macOS, zunächst für Max-Abonnenten, gedacht als „Claude Code für den Rest der Arbeit“. Cowork soll Zielvorgaben in geplante, ausgeführte Schritte übersetzen und am Ende fertige Artefakte wie organisierte Dateien, formatierte Dokumente oder zusammengeführte Recherchen liefern. Mit Desktop-Agenten rücken Sicherheitsfragen stärker in den Vordergrund, weil Dateizugriff, Systemaktionen und Browserhandlungen neue Angriffsflächen schaffen; Prompt-Injection und Fehlhandlungen gelten als reale Risiken, weshalb restriktive Ordnerfreigaben, getrennte Arbeitsbereiche und vorsichtige Einstiege empfohlen werden. Insgesamt markieren Claude Code und Cowork weniger ein einzelnes Feature als den Trend, agentische Workflows zum Standard-Interface für Computerarbeit zu machen, inklusive der Spannung zwischen schnellem „Vibe Coding“ und der weiterhin nötigen Disziplin für wartbare, getestete und sichere Produktionssysteme.

Quellen:
Claude Opus 4.5 – Availability and pricing
https://www.anthropic.com/claude/opus/

Anthropic’s viral new work tool wrote itself (Axios)
https://www.axios.com/2026/01/13/anthropic-claude-code-cowork-vibe-coding

Anthropic’s new Cowork tool offers Claude coding help to non-experts (TechRadar)
https://www.techradar.com/pro/anthropics-new-cowork-tool-offers-claude-coding-help-to-non-experts

Anthropic’s Claude AI chatbot is down as company confirms ‘elevated error rates’ for Opus 4.5 and Sonnet 4.5 (ITPro)
https://www.itpro.com/technology/artificial-intelligence/anthropic-claude-outage-opus-sonnet-down

ceLLMate: Sandboxing Browser AI Agents (arXiv)
https://arxiv.org/abs/2512.12594

KI-Revolution: Die Zukunft der Wirtschaft und der Arbeitswelt

Die Episode ordnet den aktuellen KI-Umbruch als strukturelle Marktverschiebung ein: Automatisierung drückt Margen in vielen klassischen Dienstleistungs- und Online-Modellen, während neue Chancen dort entstehen, wo KI nachweislich betriebswirtschaftliche Effekte liefert, etwa durch Zeitersparnis, Kostensenkung oder Umsatzsteigerung. Entscheidend sei, KI nicht als Add-on zu verkaufen, sondern als Kern der Wertschöpfung in Prozessen, Services oder Produkten zu verankern. Parallel verlagert sich die Nachfrage von breiten Allzweck-Angeboten hin zu spezialisierter, vertikaler KI, die ein konkretes Problem für eine klar definierte Zielgruppe löst.

Das Format unterscheidet zwei zentrale Stoßrichtungen. Kreative KI zielt auf stark beschleunigte und verbilligte Medien- und Content-Produktion, die früher teuer oder schwer skalierbar war. Technische KI baut Systeme, Automationen und Software, die echte Unternehmensprozesse ersetzen oder messbar verbessern. Als besonders nachgefragte Modelle werden sieben Felder beschrieben: KI-Videoagenturen mit standardisierten Workflows für schnelle Bewegtbildproduktion; Marketing-Automation mit Fokus auf messbaren Akquise- und Lead-Impact; Voice-Agents für Telefonprozesse wie Terminierung, Qualifizierung und Follow-ups; interne Workflow-Automation für Routinearbeit mit klarer Stundenersparnis; Corporate-LLM-Setups mit kontrolliertem Wissenszugriff, Teamfunktionen und Datenschutzanforderungen; produktisierte KI-Apps als Abo-Software für Branchen oder Rollen; sowie KI-Beratung für Strategie, Use-Case-Priorisierung, Governance, Schulung und Change-Management, weil Umsetzung oft an Verantwortlichkeiten und Prozessen scheitert. Als operative Leitplanken werden Tempo vor Perfektion, Tool-Agnostik, konsequente Repositionierung weg vom „klassisch mit KI“, frühe Skalierungslogik und schnelle Umsetzung genannt.

Quellen:
The Economic Potential of Generative AI: The Next Productivity Frontier (McKinsey) https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier
Generative AI Market Size And Share | Industry Report, 2033 (Grand View Research) https://www.grandviewresearch.com/industry-analysis/generative-ai-market-report
AI Video Market Size, Share & Trends | Industry Report, 2033 (Grand View Research) https://www.grandviewresearch.com/industry-analysis/artificial-intelligence-ai-video-market-report
Gartner Identifies the Top 10 Strategic Technology Trends for 2025 (Gartner) https://www.gartner.com/en/newsroom/press-releases/2024-10-21-gartner-identifies-the-top-10-strategic-technology-trends-for-2025
AI Act: Application timeline (European Commission) https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

Agentengesteuerte Softwareentwicklung

Berlin wird in der Agentic-Coding-Szene als neuer Knotenpunkt sichtbar. Beim Claude Code Developer Community Summit am Merantix AI Campus stand nicht mehr das klassische „KI hilft beim Tippen“ im Zentrum, sondern ein Rollenwechsel in der Softwareentwicklung: Menschen definieren Ziele, Leitplanken und Prioritäten, während mehrere KI-Agenten Aufgaben weitgehend eigenständig abarbeiten. In Erfahrungsberichten tauchten Quoten bis zu 90 Prozent KI-generierten Codes als realer Projektwert und teils sogar als Zielmarke für kurze Iterationszyklen auf. Entscheidend bleibt dabei nicht die Autonomie an sich, sondern die Verlässlichkeit durch menschliches Management: Koordination, Review, Tests, Systemdesign und Risikoabsicherung gewinnen gegenüber manueller Implementierung an Gewicht.

Technisch bündelte sich die Debatte um Claude Code, ein terminalbasiertes Agentic-Coding-Tool von Anthropic. Diskutiert und demonstriert wurden Workflows, in denen Agenten unter Aufsicht Tests ausführen, Git-Abläufe übernehmen, Änderungen über mehrere Dateien koordinieren und Deployments in Staging-Umgebungen anstoßen. Für längere, stabile Sessions kristallisierten sich drei Erfolgsfaktoren heraus: sauberes Kontext-Management, parallele Orchestrierung mehrerer Agenten-Instanzen und defensive Prompts plus Sicherheitsregeln, um riskante Aktionen und unbeabsichtigte Schäden zu vermeiden.

Der Berliner Termin wurde zudem als Auftakt für die CASE Conference (Conference on Agentic Software Engineering) verstanden, die für Mittwoch, den 14. Januar 2026, ebenfalls in Berlin angekündigt war. Im Hintergrund steht der wirtschaftliche Druck rund um agentische Entwicklungswerkzeuge: Anfang Januar 2026 berichteten Medien über eine mögliche neue Anthropic-Finanzierungsrunde mit 10 Milliarden US-Dollar und einer Zielbewertung von 350 Milliarden US-Dollar. Parallel wächst für europäische Teams die Bedeutung des Claude-Ökosystems durch Enterprise-Einsatz, CLI-Fokus und Integrationen über das Model Context Protocol (MCP), das Tool- und Datenanbindungen standardisieren soll. Als Leistungstreiber wurde zudem Claude Sonnet 4.5 (Ende 2025) als spürbarer Sprung für Coding-Logik und Zuverlässigkeit eingeordnet. Insgesamt verdichtet sich die These: 2026 markiert weniger das Zeitalter „besseres Autocomplete“, sondern die Operationalisierung von Agenten als teilautonome Ingenieure, mit Programmiersprachen stärker als Implementierungsdetail und Spezifikation, Produktdenken und Orchestrierung als neue Kernkompetenzen.

Quellen:
Anthropic plans new fundraise at $350 billion valuation, sources say (Reuters) https://www.reuters.com/technology/anthropic-plans-raise-10-billion-350-billion-valuation-wsj-reports-2026-01-07/
Anthropic Seeks $10 Billion Raised On $350 Billion Valuation, Report Says (Forbes) https://www.forbes.com/sites/tylerroush/2026/01/07/anthropic-seeks-10-billion-raised-on-350-billion-valuation-report-says/
Claude Code: Deep coding at terminal velocity (Anthropic) https://www.anthropic.com/claude-code/
Claude Code overview (Anthropic Docs) https://docs.anthropic.com/en/docs/claude-code/overview
Quickstart (Claude Code) (Anthropic Docs) https://docs.anthropic.com/en/docs/claude-code/quickstart
Model Context Protocol (MCP) (Anthropic Docs) https://docs.anthropic.com/en/docs/mcp
MCP connector (Anthropic Docs) https://docs.anthropic.com/en/docs/agents-and-tools/mcp-connector
Devs don't trust AI code - but many say they still don't check it anyways (TechRadar, citing Sonar survey) https://www.techradar.com/pro/devs-dont-trust-ai-code-but-many-say-they-still-dont-check-it-anyways
Nearly half of software developers don't check AI-generated code (ITPro, citing Sonar survey) https://www.itpro.com/software/development/software-developers-not-checking-ai-generated-code-verification-debt

Die KI Fabrik: Innovationen und Trends bei der Inferenzökonomie

CES 2026 wird in dieser Folge als Taktgeber für den nächsten industriellen KI‑Zyklus beschrieben, weniger als Konsumelektronikshow. OEMs, Betreiber und Partner synchronisieren Budgets, Rechenzentrums-Ausbau und Jahresroadmaps, weil „Always-on“-KI Lieferketten, Verfügbarkeit und Skalierung neu priorisiert. NVIDIA rahmt KI explizit als Industriephase: Entscheidend sind Strom, Maschinenlogik, schnelle Bereitstellung und die Fähigkeit, Intelligenz verlässlich im großen Maßstab zu liefern.

Die Diskussion ordnet die Marktdynamik als Nachfrage-Schock ein. Akteure mit täglichen Nutzungsdaten planen Kapazitäten so, als wären sie dauerhaft im Rückstand. Dadurch verschiebt sich die operative Optimierung vom Training hin zur Inferenz als zentralem Kostentreiber. Inferenz läuft kontinuierlich, ist SLA-gebunden, latenzkritisch und stark kostengetrieben. Kernziel ist eine sinkende Kosten-pro-Token-Kurve bei gleichbleibender Zuverlässigkeit.

Aus NVIDIA-Sicht reicht dafür keine einzelne Chipgeneration. NVIDIA positioniert sich als Rackscale-Plattform für eine „Inferenzökonomie“ und bündelt CPU, GPU, Interconnect, NIC/DPU und Ethernet als Gesamtsystem (Vera CPU, Rubin GPU, NVLink 6, ConnectX‑9, BlueField‑4, Spectrum‑6). Die Folge betont „Tokenökonomie zuerst“ und leitet daraus ein Architekturmotiv ab: Kontext wird zur aktiv gemanagten Ressource. Statt KV‑Caches ständig neu zu berechnen, sollen zusätzliche Speicher- und Orchestrierungsebenen Kontext effizient vorhalten und bewegen. Damit rücken Speicher, Bandbreite und Datenbewegung als Skalierungsgrenzen stärker in den Vordergrund als reine Rechenleistung.

Als Referenzrahmen dienen Infrastruktur- und Lieferkettendeals, die Kapazität in Gigawatt statt in Serverstückzahlen messen. Genannt wird eine Absichtserklärung zwischen OpenAI und NVIDIA vom 22. September 2025 über mindestens 10 GW, mit einem Start der ersten 1‑GW‑Phase in der zweiten Jahreshälfte 2026 auf Vera Rubin sowie einer in Aussicht gestellten NVIDIA‑Investitionssumme bis 100 Milliarden US‑Dollar, gekoppelt an bereitgestellte Leistung. Parallel wird OpenAIs Multi-Sourcing-Strategie skizziert, u. a. mit AMD: Am 6. Oktober 2025 wurde eine Vereinbarung über bis zu 6 GW Instinct‑GPUs (Start ebenfalls mit 1 GW in der zweiten Jahreshälfte 2026, MI450) inklusive eines Warrants über bis zu 160 Millionen AMD‑Aktien bekannt.

Ein verbleibender Engpass ist Speicher und Bandbreite. Die Folge verweist auf starke Preisbewegungen bei DRAM und knappe Kapazitäten bei HBM/DRAM, was die KI‑Lieferkette auf mehreren Stufen blockiert. Für die nächsten 12 bis 18 Monate sieht die Folge deshalb wenig Anzeichen für eine schnelle Ablösung von NVIDIA als Standardplattform, erwartet langfristig aber einen sinkenden Anteil an Inferenz-Ausgaben durch wachsende Heterogenität: alternative GPUs (z. B. AMD, getragen durch Ankerkunden), spezialisierte Chips für vorhersagbare Serving-Workloads und perspektivisch der Export interner Hyperscaler‑Chips, sobald Preis/Leistung/Verfügbarkeit stimmen. Operativ, so das Argument, ist diese Vielfalt bei Inferenz oft leichter zu handhaben als beim Training.

Zum Schluss erweitert die Folge den Blick auf „Physical AI“: KI wandert aus dem Rechenzentrum in Robotik, autonome Systeme und die Umgebung. Diese Anwendungen sind besonders hart in Latenz und Zuverlässigkeit und erhöhen damit den Inferenzdruck zusätzlich. Das übergreifende Fazit lautet: CES 2026 verschiebt den Wettbewerb vom Chip‑Rennen zum Fabrik‑Rennen, in dem Energie, Lieferketten, Speicher/Bandbreite und Plattformintegration bestimmen, wer Intelligenz zuverlässig und kosteneffizient ausliefert.

Quellen:
OpenAI and NVIDIA announce strategic partnership to deploy 10 gigawatts of NVIDIA systems https://openai.com/index/openai-nvidia-systems-partnership/
OpenAI and NVIDIA Announce Strategic Partnership to Deploy 10 Gigawatts of NVIDIA Systems https://nvidianews.nvidia.com/news/openai-and-nvidia-announce-strategic-partnership-to-deploy-10gw-of-nvidia-systems
AMD and OpenAI Announce Strategic Partnership to Deploy 6 Gigawatts of AMD GPUs https://www.amd.com/en/newsroom/press-releases/2025-10-6-amd-and-openai-announce-strategic-partnership-to-d.html
AMD and OpenAI announce strategic partnership to deploy 6 gigawatts of AMD GPUs https://openai.com/index/openai-amd-strategic-partnership/
NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
Samsung forecasts profit to triple to record high as it rides AI boom (Reuters, 07 Jan 2026) https://www.reuters.com/world/asia-pacific/samsung-elec-estimates-208-rise-q4-operating-profit-beating-expectations-2026-01-07/