AI REWRITE - Wie AI alles neu erfindet !

AI REWRITE - Wie AI alles neu erfindet !

Die wunderbare Welt der AI

Transkript

Zurück zur Episode

00:00:00: Neuigkeiten in der AI-Welt.

00:00:02: In der vergangenen Woche liefen in der KI-Branche viele Themen parallel.

00:00:06: Fünf Punkte stechen heraus, weil sie die Strategie großer Anbieter verändern.

00:00:12: Erstens.

00:00:13: Rennen um KI im Gesundheitswesen.

00:00:17: Viele Berichte treffen den Kern nicht.

00:00:19: OpenAI startete zwei Angebote.

00:00:22: ChatGPT Health als Produkt für Verbraucher.

00:00:25: Gesundheitsdaten lassen sich synchronisieren, du stellst Fragen zum eigenen Körper.

00:00:31: OpenAI vor Healthcare für Unternehmen.

00:00:34: Eine hiperkonforme Schnittstelle ausgelegt für große Organisationen, inklusive Integrationen in Krankenhaussysteme.

00:00:42: Fünf Tage später folgte Anthropic mit Claude vor Healthcare inklusive Anbindungen an CMS-Datenbestände sowie Systeme rund um Versicherungsfälle und Abrechnung.

00:00:54: Auf der Oberfläche lautet die Story, KI zieht in die Medizin ein.

00:01:00: Viele Menschen sprechen heute schon mit großen Sprachmodellen über Gesundheit.

00:01:05: Eine eigene Produktlinie wirkt wie Absicherung, weil bei sensiblen Gesundheitsfragen ein höherer Sorgfaltsmaßstab zählt.

00:01:13: Skepsis passt dazu, weil die Liste gescheiterte Healthcare-KI-Initiativen lang ist.

00:01:19: IBM Wotson Oncology startete mit großen Erwartungen und scheiterte später.

00:01:25: Google DeepMind lieferte starke Fortschritte beim Proteinfolding, Und KI-inspirierte Wirkstoffe liegen in der Pipeline.

00:01:33: Ein Massenprodukt mit Millionen Nutzern fehlt bislang.

00:01:37: Eine Erklärung bekommt wenig Aufmerksamkeit.

00:01:40: Die Kapitalmarktperspektive.

00:01:42: OpenAI und Anthropic bewegen sich in Richtung öffentlicher Märkte.

00:01:47: Dafür reicht eine Erzählung wie Konsumenten-Chatbot oder Büro-Chatbot nicht.

00:01:53: Healthcare liefert Investoren eine starke Story.

00:01:56: Auch ohne konkretes IPO-Datung braucht eine belastbare Healthcareerzählung Zeit.

00:02:02: Dafür brauchst du in der Praxis.

00:02:05: Frühe Partnerschaften mit Krankenhäusern, funktionierende Datenflüsse, nachweisbare Compliance, im Idealfall Millionen Nutzer mit messbarem Nutzen.

00:02:16: Diese Story funktioniert an der Börse auf mehreren Ebenen.

00:02:20: Regulierung signalisiert Seriosität, HIPAA-Compliance zeigt technische und organisatorische Reife.

00:02:27: Krankenhauspartnerschaften stärken Glaubwürdigkeit im Enterprise-Segment.

00:02:32: Im US-Markt lesen viele steigende Gesundheitsausgaben als steigende Erlöse, unabhängig von der gesellschaftlichen Bewertung.

00:02:40: Trotzdem steckt Substanz drin.

00:02:42: Reale, teure Problemfelder liefern direkt messbaren Wert durch Automatisierung.

00:02:49: Ein Beispiel ist Prior-Authorization.

00:02:52: Ärztinnen und Ärzte reichen Unterlagen bei Versicherern ein, um Behandlungen genehmigen zu lassen.

00:02:58: Administration frisst hier Zeit und Geld.

00:03:01: KI spart beides.

00:03:03: Mehrere Punkte gelten gleichzeitig.

00:03:06: Echte Nachfrage treibt Produkte.

00:03:09: Positionierung in einem wachsenden Ausgabenfeld.

00:03:12: Aufbau einer IPO-tauglichen Story für spätere öffentliche Investoren.

00:03:18: Noch wichtiger sind die Folgen für die Marktstruktur.

00:03:21: Foundation-Model-Anbieter gehen direkt in vertikale Anwendungen.

00:03:26: Damit kippt die Bildversus-Beihrechnung für Krankenhäuser.

00:03:29: Ein Krankenhaus braucht weniger Gründe, eine spezialisierte Healthcare-KI-Firma zu kaufen oder zu integrieren, wenn hipperkonforme Claude- oder Chat-GBT-Angebote direkt vom Basismodell-Anbieter kommen.

00:03:46: KI beschleunigt Softwareentwicklung, Plattformanbieter bauen erfolgreiche Muster schnell nach, wenn Distribution vorhanden ist.

00:03:55: Für Startups entsteht eine Existenzfrage.

00:03:59: Wenn OpenAI oder Anthropic ein ähnliches Produkt mit gleichem Basismodell und größerer Reichweite launcht, fehlt oft ein klares Alleinstellungsmerkmal.

00:04:11: Damit steht Hellscare für mehr als Medizin.

00:04:15: Vertikale Integration rückt in den Vordergrund.

00:04:19: Foundation-Model-Unternehmen wollen Infrastruktur liefern und zugleich Anwendungserlöse holen, sobald attraktive Use-Cases sichtbar werden.

00:04:30: Zweit.

00:04:31: Abgang von Jan Le Kyn und die Bedeutung.

00:04:35: Jan Le Kyn verließ Meter nach mehr als einem Jahrzehnt und sprach in einem Interview ungewöhnlich offen.

00:04:42: Le Kyn zählt zu den Schlüsselfiguren der Deep Learning Revolution oft genannt zusammen mit Joffrey Hinton und Joshua Bengio.

00:04:52: Im Interview bestätigte Le Kuen, Meta arbeitete bei Lama Benchmarks mit unterschiedlichen Modellvarianten für unterschiedliche Tests.

00:05:02: Dadurch wirkte Ergebnisse besser als bei sauberer Vergleichbarkeit.

00:05:07: Le Kuen schilderte auch, nach Bekanntwerden des Benchmark-Themas verlor Mark Zuckerberg offenbar Vertrauen in die damalige Lama-Führung.

00:05:16: Große Teile der Organisation landeten am Rand.

00:05:20: Das erklärt später neue Führung und aggressive Neueinstellungen.

00:05:25: Der Kern bleibt Le Cun's These.

00:05:28: Große Sprachmodelle führen nicht zu Superintelligenz.

00:05:32: Diese Debatte prägt die Branche.

00:05:34: Entweder tragen Skalierungsgesetze weiter Richtung AGI oder ein großer Teil der Milliardeninvestitionen läuft in die falsche Richtung.

00:05:44: Ein sauberer Beweis fehlt, bevor eine echte Grenze sichtbar wird.

00:05:49: Gründer Vidario Amodei sagen, eine Skalierungsgrenze tauchte noch nicht auf.

00:05:55: Per Definition erkennst du so eine Grenze erst beim Aufprall.

00:06:00: Le Cun sagt, Sprachmodelle bauen keine echten Weltmodelle, zentrale Eigenschaften von Intelligenz fehlen.

00:06:08: Darum will er an einem alternativen Pfad arbeiten und dafür ein eigenes Unternehmen gründen.

00:06:14: Parallel zeigt die Praxis Fortschritte.

00:06:18: Agentische Systeme erledigen längere Aufgabenketten.

00:06:22: Fähigkeiten und Generalisierung wachsen weiter.

00:06:25: Generalisierung bleibt fragil und liegt nicht auf menschlichem Niveau.

00:06:30: Damit läuft ein offener Kampf der Ideen.

00:06:33: In ein bis zwei Jahren liefert die Praxis mehr Klarheit, weil Skalierung weiter trägt oder eine harte Grenze auftaucht.

00:06:43: Dritt.

00:06:43: Physical AI und Robotik.

00:06:46: Physical AI rückt nach vorn, also KI mit Zugriff auf die physische Welt, vor allem Robotik.

00:06:53: In derselben Woche passierten mehrere Dinge.

00:06:57: Nvidia präsentierte auf der CES die Rubin-Plattform.

00:07:02: Google DeepMind und Boston Dynamics kündigten eine Partnerschaft an, um Gemini als Foundation Model in Atlas-Robotern einzusetzen, zuerst in High-End-Fabriken.

00:07:14: Nvidia zeigte eine Familie offener Modelle für autonome Fahrzeuge.

00:07:20: Jensen Huang sagte sinngemäß, der Chat-GPT-Moment für Robotik sei da.

00:07:28: Robotik ist damit nicht auf einmal gelöst.

00:07:31: Mehrere technische Bausteine greifen erstmals zugleich.

00:07:36: Erstens.

00:07:38: Foundation Models arbeiten multimodal.

00:07:41: Claude, Gemini und ChatGPT verstehen Bilder, erfassen räumliche Beziehungen und leiten daraus Pläne ab.

00:07:51: Ältere Robotersysteme litten oft unter spröder Wahrnehmung, weil Computervision zu stark fest verdrahtet war.

00:07:59: Zweitens.

00:08:00: Simulationen wurden besser.

00:08:03: Plattformen wie NVIDIAs Omniverse erzeugen synthetische Szenarien, die sich teilweise in die reale Welt übertragen lassen.

00:08:11: Das hilft beim Datenproblem.

00:08:14: Drittens, Edge-Inference-Chips liefern genug Leistung, relevante Modelle laufen direkt auf dem Roboter, statt dauernd auf Server-Entscheidungen zu warten.

00:08:25: NVIDIA zeigte neue Jetsen-Hardware mit mehr KI-Rechenleistung bei ähnlichem Energieprofil.

00:08:33: Das reduziert ständiges nach Hause telefonieren und erhöht Reaktionsfähigkeit.

00:08:39: NVIDIAs Plan, ein Full-Stack für Physical AI.

00:08:43: Training im Rechenzentrum, Edge-Inference, Simulation, offene Modelle.

00:08:50: Damit verdient Nvidia unabhängig davon, ob Boston Dynamics, Tesla oder andere Hersteller gewinnen.

00:08:58: An der Boston Dynamics Kooperation fällt ein Punkt auf.

00:09:01: Datensammlung.

00:09:03: Atlas-Roboter arbeiten in realen Fabriken.

00:09:06: Daten fließen in die nächste Modellgeneration.

00:09:10: Daraus entsteht eine Rückkopplungsschleife.

00:09:12: Roboter ausrollen, Daten sammeln, Modelle verbessern.

00:09:17: Bessere Roboter schneller ausrollen.

00:09:21: Die strategische Frage lautet, entwickelt Physical AI eine ähnliche Skalierungsdynamik wie Sprachmodelle?

00:09:28: Wenn ja, sichern früher Akteure mit embodied Data schnell aufeinander aufbauende Vorteile.

00:09:35: Nvidia gewinnt als Infrastruktur-Layer in jedem Fall, Skepsis bleibt, liegt Robotik näher als früher oder folgt ein weiteres falsches Morgen.

00:09:46: Diesmal spricht der Foundation-Modelanteil für mehr Fortschritt.

00:09:50: Frühere Generationen waren fragil, Wahrnehmung und Generalisierung waren zu hart kodiert.

00:09:57: Jetzt tauchen Signale auf.

00:09:59: Modelle lernen aus Video und generalisieren Handlungsmuster besser.

00:10:03: Für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für für.

00:10:27: Robotik wird ein konkretes Thema.

00:10:27: Lernen im Betrieb zählt früh, nicht erst später.

00:10:29: Vier.

00:10:29: Datenfrage und neue Quellen.

00:10:31: Hinweise verdichten sich.

00:10:34: Leicht verfügbares Trainingsmaterial aus dem öffentlichen Internet ist weitgehend ausgeschöpft.

00:10:40: Ein Bericht beschreibt OpenAI und ein Unternehmen namens Handshake.

00:10:45: AI forderten Auftragnehmer auf, reale Arbeitsprodukte aus früheren Jobs hochzuladen.

00:10:53: Genannt wurden Word-Dokumente, PDFs, PowerPoints, Excel-Dateien, Bilder und Code-Reamer sollen publitäre Informationen und personenbezogene Daten entfernen.

00:11:06: In der Praxis klappt so ein Filtern nicht immer zuverlässig.

00:11:11: Strategisch ist der Punkt brisant.

00:11:13: Wenn die nächste Fähigkeitsstufe nicht mehr aus frei scrapebarem Webtext kommt, sondern aus echten Arbeitsartifakten, verschiebt sich der Kampf um Daten in Richtung interner Unternehmensbestände.

00:11:27: Viele Sprachmodelle lernten auf Text, der für Leser gedacht war.

00:11:32: Wertvolle Arbeit in Unternehmen entsteht oft anders.

00:11:36: Interne Dokumente, Projektdateien, Analyse-Schieds, Prozessbeschreibungen, Entscheidungsvorlagen.

00:11:44: Genau dieses Material hilft KI, Arbeit auszuführen, statt nur über Arbeit zu sprechen.

00:11:50: Upload-Programme werfen rechtliche und ethische Fragen auf und zeigen Prioritäten.

00:11:57: Wer den besten Corpus darüber besitzt, wie Menschen real arbeiten, bekommt einen Vorteil beim Bau von Arbeitsagenten.

00:12:05: Für dein Unternehmen bedeutet das, interne Daten und Workflows werden strategisch wertvoller.

00:12:12: Die zentrale Frage lautet, wie du diesen Wert selbst hebst oder unkontrollierten Abfluss stopst.

00:12:24: Ein spürbarer Sprung zeigt sich in Bilderworkflows vor allem rund um Cloud Code und agentisches Programmieren.

00:12:31: Über Dezember und Januar diskutierten viele Nutzer Cloud Code auf X, weil ungewöhnlich viele Aufgaben automatisiert wurden.

00:12:40: Ein Beispiel kommt von Boris Cherny, dem Autor von Claude Code.

00:12:45: Mehrere parallele Claude Instanzen.

00:12:48: Opus vier Punkt fünf.

00:12:50: Datei Claude Punkt MD, Regeln wachsen aus wiederholten Fehlern.

00:12:56: Instanzen iterieren, prüfen gegen die Regelbasis, liefern nach, bis Anforderungen erfüllt sind.

00:13:03: Ein weiteres Beispiel beschrieb Michael Truell, Mitgründer von Cursor.

00:13:09: Laut ihm entstand mit ChatGPT fünf Punkt zwei Ein Webbrowser von Grund auf, über ungefähr eine Woche Laufzeit und mit mehreren Millionen Zeilen Code.

00:13:20: Ergebnis?

00:13:21: Unter anderem eine Rendering Engine in Rust mit HTML-Parsing, CSS-Cascade, Layout, Textshaping, Pixel Rendering und eigener JavaScript-VM.

00:13:34: Das liegt nicht auf dem Niveau von Chromium und Vergleichbarkeit gilt nur teilweise.

00:13:39: Gerade Unvollkommenheit macht den Trend sichtbar.

00:13:43: Agentische Systeme erzeugen in kurzer Zeit funktionsfähige, extrem aufwendige Systeme, weil Software einen schnellen Feedback-Loop liefert.

00:13:52: Du führst aus, testest, misst, korrigierst, wiederholst.

00:13:57: Damit drückt die nächste Hürde in den Fokus.

00:14:00: Viele Wissensarbeitsaufgaben liefern keinen klaren Feedback-Loop wie Code.

00:14:05: Beispiele, E-Mail-Hilfe oder Situationsanalyse.

00:14:09: Kriterien bleiben Waage.

00:14:11: Prüfung läuft selten automatisch.

00:14:14: Hier setzt Claude Co-Work an, als eine Art Claude Code für andere Arbeit.

00:14:20: Ein Sandbox-Umfeld, in dem Claude Dateien verwendet, Aktionen ausführt und mehrstufige Aufgaben abarbeitet.

00:14:28: Breitenwirkung hängt daran, ob du Erfolgskriterien ausreichend klar formulierst.

00:14:34: Gleichzeitig zeigt der Trend, Modelle werden stärker darauf trainiert, aus normalem Deutsch oder Englisch brauchbare Arbeitsprodukte zu liefern, etwa Präsentationen oder Verdichtungen.

00:14:47: Damit bleibt Raum für Menschen, die Spitzenqualität wollen und Outputs sauber definieren, Korrektheit präzisieren und Systeme gezielt steuern.

00:14:59: In Summe zeigt sich ein Bild.

00:15:01: Die Branche baute über Jahrefähigkeiten auf, größere Modelle, bessere Benchmarks, stärkere Demos.

00:15:09: Jetzt folgt der Test auf Wertschöpfung.

00:15:11: Healthcare-Initiativen brauchen Skalierungen im Alltag.

00:15:15: Coburg und ähnliche Umgebungen müssen Wissensarbeit zuverlässig abbilden.

00:15:21: Physical AI muss in eine Rückkopplungsschleife aus Rollout, Daten und Modellverbesserung kommen.

00:15:28: Für dich gilt.

00:15:30: Wenn du physische Prozesse verantwortest, setze Robotik ab sofort auf die Agenda und sammle Betriebserfahrung.

00:15:38: Wenn du Software und Wissensarbeit machst, probiere Agenten Workflows praktisch aus.

00:15:44: Die Fähigkeitsschwelle kippte, jetzt zeigt sich, was damit möglich wird.