Die wunderbare Welt der AI
00:00:00: Neuigkeiten in der AI-Welt.
00:00:04: Heute geht es unter anderem um Werbung in ChatGPT,
00:00:08: Elon Musk's
00:00:09: milliardenschwere Forderungen gegen Open AI, eine Untersuchung zum Einsatz von KI in der Praxis, eine Schwachstelle bei Claude Cowork und einen neuen sicheren KI-Chatbot vom Signalgründer.
00:00:26: Open AI führt offiziell Werbung in ChatGPT ein.
00:00:31: Hinweise kursierten schon länger, jetzt starten in den USA erste Tests.
00:00:38: Ein Termin für Anzeigen im deutschsprachigen Raum steht noch aus.
00:00:43: Anzeigen sind zuerst in der kostenlosen Version von ChatGPT geplant, dazu kommt eine neue, günstigere Abo-Variante mit dem Namen ChatGPT Go.
00:00:55: Für OpenAI liegt dieser Schritt nahe.
00:00:58: Forschung, Entwicklung und Betrieb großer KI-Modelle kosten viel Geld.
00:01:05: Das Thema gilt als Heikel.
00:01:07: Im Herbst, twenty-fünfundzwanzig, sagte CEO Sam Altman öffentlich, Werbung sei ihm zu wieder.
00:01:15: Der Konflikt liegt auf der Hand.
00:01:17: Du sollst nicht den Eindruck bekommen, eine bezahlte Botschaft beeinflusst Antworten.
00:01:23: OpenAI nennt Grundsätze.
00:01:26: Anzeigen verändern Antworten nicht.
00:01:28: Anzeigen tragen eine klare Kennzeichnung.
00:01:31: Anzeigen passen thematisch zur Frage.
00:01:35: Zuerst erscheinen Anzeigen unterhalb der normalen Antwort.
00:01:40: OpenAI verspricht, keine Gesprächsinhalte an Werbetreibende zu verkaufen.
00:01:46: Gleichzeitig liegen Daten bei OpenAI.
00:01:49: Für die Auswahl der Anzeigen sollen personalisierte Daten einfließen, ohne genaue Angaben dazu, welche Informationen einbezogen werden.
00:01:59: Im Rechtsstrei zwischen Elon Musk und OpenAI gibt es Neuigkeiten.
00:02:04: Musk gehörte zu den Gründern von OpenAI, ging aber in den letzten Jahren.
00:02:10: Öffentlich nannte Musk damals mögliche Interessenkonflikte, da er als Tesla-CEO in einem Umfeld arbeitet, in dem KI eine größere Rolle spielt.
00:02:21: Berichten zufolge ging es auch um Einfluss.
00:02:24: OpenAI und Sam Altman sollen Masks Vorschlag abgelehnt haben, selbst die Führung zu übernehmen.
00:02:32: Seitdem wirkt das Verhältnis zwischen Musk und Altman öffentlich angespannt.
00:02:39: M.A.S.K.
00:02:43: wirft OpenAI vor, den ursprünglichen gemeinnützigen Kurs verlassen zu haben und zu einem profitorientierten Unternehmen geworden zu sein, das vor allem Microsoft zuarbeitet.
00:02:56: M.A.S.K.
00:02:56: behauptet zudem, OpenAI habe ihn um den Gegenwert seiner frühen Unterstützung gebracht.
00:03:03: M.A.S.K.
00:03:04: weist die Vorwürfe zurück.
00:03:06: M.A.S.K.s Anwälte legen jetzt nach.
00:03:09: Ein Experte habe Ansprüche bis rund onehundertneun Milliarden US-Dollar errechnet.
00:03:15: Dabei geht es unter anderem um rund achtunddreißig Millionen US-Dollar aus der Anfangszeit, dazu Kontakte und Know-how.
00:03:24: Im März zwei-tausendfünfundzwanzig wies ein Gericht Masks-Eilantrag ab, der eine Umstrukturierung von OpenAI stoppen sollte.
00:03:33: Gleichzeitig ließ das Gericht das Hauptsache-Verfahren zu.
00:03:36: Der Prozessbeginn gilt für April-Zweitausendsechsundzwanzig als Termin.
00:03:42: Ein weiteres Thema betrifft den Alltag in der Arbeit.
00:03:46: Wie setzen Menschen KI ein?
00:03:49: Oft lautet das Versprechen, KI übernimmt Routine, Menschen konzentrieren sich auf Wichtiges.
00:03:58: Eine neue Studie von Anthropic zeichnet ein anderes Bild.
00:04:03: Enthropic wertete rund zwei Millionen anonymisierte Daten aus dem November, im Fokus stand, wofür Menschen den Assistenten Claude verwenden
00:04:15: und wie oft
00:04:16: Claude erfolgreich ist.
00:04:19: Ergebnis?
00:04:21: In der Praxis delegieren viele besonders anspruchsvolle Aufgaben an KI.
00:04:26: Genau dort zeigt KI die größten Schwächen.
00:04:30: Bei schwierigen Problemen liegt die Erfolgsquote
00:04:33: laut Studie
00:04:34: bei etwa sixty-six Prozent, bei leichteren Tätigkeiten bei rund seventy Prozent.
00:04:41: Die Forschenden nennen als Folge ein Effekt namens
00:04:44: Skilling.
00:04:46: Berufe verlieren ausgerechnet die anspruchsvollen Bestandteile, Beispiel technischer Redakteur.
00:04:54: KI analysiert neue Entwicklungen und prüft veröffentlichte Materialien.
00:04:59: Der Mensch übernimmt erst Kizzen oder Produktionsaufgaben.
00:05:05: Beispiel Reisebüro.
00:05:07: KI plant schwierige Routen und Kostenberechnungen, Menschen drucken Fahrkarten und wickeln Zahlungen ab.
00:05:15: Das wirkt zunächst widersprüchlich, weil Fehler bei schwierigen Aufgaben oft schwer zu erkennen sind.
00:05:22: Anthropic erklärt den Trend vor allem mit Zeitgewinn.
00:05:27: Eine Aufgabe mit drei Stunden Aufwand ohne KI lässt sich mit KI in rund fünfzehn Minuten erledigen.
00:05:34: Viele akzeptieren dafür eine höhere Fehlerquote.
00:05:40: Die Auswertung weist auch auf mehr globale Ungleichheit hin.
00:05:44: In wohlhabenden Ländern wie den USA, Japan oder Südkorea kommt KI breiter zum Einsatz, auch privat.
00:05:53: In ärmeren Ländern konzentriert sich der Einsatz stärker auf Lernen und klar umrissene Arbeitsaufgaben.
00:06:01: Bei KI-Werkzeugen mit Dateizugriff und Verbindung zum eigenen Computer rückt Sicherheit in den Fokus.
00:06:10: Zwei Tage nach der Veröffentlichung von Anthropic
00:06:12: System
00:06:13: Claude Cowork dokumentierten Sicherheitsforscher eine kritische Schwachstelle.
00:06:19: Angreifer schleusen versteckte Befehle in harmlos wirkende Dokumente ein und ziehen so vertrauliche Dateien ab,
00:06:27: ohne eine menschliche Freigabe.
00:06:31: Die Sicherheitsfirma Prompt Armor beschrieb die Methode im Detail.
00:06:36: Grundlage ist eine bekannte Lücke in der Ausführungsumgebung
00:06:40: von
00:06:40: Claude Cote.
00:06:43: Der Sicherheitsforscher
00:06:44: Johann Rehberger
00:06:45: fand und meldete die Schwachstelle bereits vor Cowork.
00:06:50: Anthropic erkannte das
00:06:52: Problem an.
00:06:53: Eine Korrektur liegt noch
00:06:54: nicht vor.
00:06:57: So läuft der Angriff ab.
00:06:59: Du verbindest Co-Work
00:07:00: mit einem lokalen Ordner mit sensiblen Daten.
00:07:04: Danach lädst
00:07:05: du ein Dokument hoch, zum Beispiel ein Word-Dokument mit versteckter Anweisung.
00:07:11: Der bösartige Text wirkt unsichtbar, etwa durch winzige Schrift in weiß auf weißem Hintergrund.
00:07:19: Sobald du Co-Work
00:07:20: um Analyse von Dateien bittest,
00:07:23: übernimmt die versteckte
00:07:24: Anweisung die Kontrolle
00:07:26: und bringt Klot dazu, zum Beispiel die größte verfügbare Datei
00:07:30: an einen externen Server zu senden.
00:07:35: Die Datei landet beim Angreifer ohne Bestätigung durch dich.
00:07:40: Tests liefen zuerst gegen das schwächere
00:07:42: Modell Claude Haiku, auch das stärkere Modell Claude Opus.
00:07:47: vier Punkt fünf ließ sich manipulieren.
00:07:51: Angriffe über versteckte Instruktionen sind
00:07:53: seit Jahren bekannt und schwer zuverlässig zu verhindern.
00:07:57: Werkzeuge wie Co-Work mit vielen Datenquellen und Systemzugriff schaffen viele Angriffspunkte.
00:08:04: Anthropic sagt, Co-Work entstand in rund andertheit Wochen und Claut Coat schrieb den Coat vollständig.
00:08:12: Das liegt Vorsicht bei der Arbeit damit nahe.
00:08:16: Ein anderer Ansatz kommt vom Signalgründer.
00:08:19: Gespräche mit gängigen Chatbots von OpenAI, Anthropic, Google oder Meta liegen meist auf Servern der Anbieter.
00:08:28: Selbst bei Opt-Out für Training fehlt in der Regel Ende zu Ende Verschlüsselung.
00:08:33: Anbieter lesen im Zweifel mit.
00:08:36: Der Signalgründer bringt mit Confer einen Chatbot, der genau das verhindern soll.
00:08:42: Eingaben und Antworten sollen vor fremdem Zugriff geschützt bleiben.
00:08:47: Du legst zuerst einen Pass-Key an, abgesichert über Face ID, Fingerabdruck oder Geräte PIN.
00:08:54: Daraus leitet das System weitere Schlüssel ab, diese bleiben auf dem Gerät.
00:08:59: Confer sieht und verwendet diese Schlüssel nicht.
00:09:03: Nachrichten an den Bot gehen verschlüsselt vom Gerät ab.
00:09:07: Ein KI-Modell läuft weiter auf Servern mit GPUs, also in einer Umgebung mit Betreiber und Kontrolle.
00:09:14: Zur Risikosenkung setzt Confair auf Confidential Computing und eine Trusted Execution Environment, eine hardwaregestützt isolierte Umgebung für abgeschirmte Ausführungen.
00:09:26: Der Quellcode liegt auf GitHub.
00:09:29: Welches KI-Modell Confair verwendet, ist noch offen.
00:09:33: Erwartet werden offene Modelle wie Lama von Meta, Gemma von Google oder Mistral aus Frankreich.
00:09:41: In einem Blockbeitrag waren Signalgründer Moxi Marlin Spike vor großen KI-Chat-Bots.
00:09:48: Menschen geben dort persönliche Gedanken ein, Anbieter speichern diese, verwenden diese für Training und monetarisieren diese.
00:09:57: Marlin Spike befürchtet auch personalisierte Werbung auf Basis der Eingaben bis hin zu gezielten Überzeugungsversuchen.
00:10:05: Sein zugespitztes Fazit sinngemäß Du bekommst eine Antwort, sie bekommen alles.
00:10:12: Weitere Meldungen aus der KI-Welt.
00:10:15: Das OpenAI-Sprachmodell GPT-Fünf-Punk-Zwei-Pro halflaut KI-Forscher Nils Omani bei der Lösung eines offenen mathematischen Problems.
00:10:25: Erdisch-Problem Nummer zweihundertundachtzig aus der Zahlenteorie.
00:10:31: Mathematiker Terence Tao nannte das einen möglichen der bislang klarsten Fälle,
00:10:37: in denen KI beim Lösen eines offenen Problems hilft.
00:10:43: Tau verweist zugleich auf mögliche frühere Beweise, die das Modell beeinflusst
00:10:48: haben.
00:10:49: Tau warnt auch vor verzerrter Wahrnehmung von KI-Fähigkeiten.
00:10:54: Negative Ergebnisse erscheinen selten, positive Resultate gehen schnell viral, Erfolge konzentrieren sich oft auf eher leichtere Probleme.
00:11:05: Google verbessert KI-gestützte Suchergebnisse mit dem Sprachmodell Gemini III Pro.
00:11:12: Schwierige Suchfragen leitet Google automatisch an das leistungsstärkste Modell weiter.
00:11:17: Einfache Fragen bearbeitet weiter ein schnelleres Modell.
00:11:22: Dieses Routing läuft bereits im AI-Mode, also Google's KI-Chat für Websuche und kommt nun auch in AI-Overviews an, den schnellen KI-Antworten direkt unter der Suchfrage.
00:11:36: Die Funktion steht weltweit auf Englisch bereit, ausschließlich für Abonnenten von Google AI Pro und Ultra.
00:11:45: KI-Suche steht weiter in der Kritik, bei Modelle überzeugend falsche Antworten liefern.
00:11:51: Quellenangaben senken Fehler nicht automatisch, viele prüfen Quellen nicht.
00:11:57: Stärkere Modelle senken die Fehlerquote, Fehler verschwinden nicht vollständig.
00:12:03: In Südkorea etabliert sich generative KI als reguläres Abo-Produkt.
00:12:09: Laut einem Datenanalyseunternehmen lagen die monatlichen Ausgaben für KI-Dienste dort Im Dezember im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr.
00:12:43: Neue Folgen erscheinen Montags, Mittwochs und Freitags ab fünfzehn Uhr.