GPT-5.5, Images 2.0 und eine kleine Routine gegen KI-Fakes 🛡️
Herzlich willkommen zur 176. Ausgabe meines Newsletters! Nur noch wenige Tage bis endlich wieder die OMR wieder seine Pforten für uns öffnet. 🥳 Hast du schon einen Plan für dieses Jahr? Ich gebe zu, den Überblick habe ich auch schon ein wenig verloren. Es gibt einfach…
Herzlich willkommen zur 176. Ausgabe meines Newsletters!
Nur noch wenige Tage bis endlich wieder die OMR wieder seine Pforten für uns öffnet. 🥳 Hast du schon einen Plan für dieses Jahr? Ich gebe zu, den Überblick habe ich auch schon ein wenig verloren. Es gibt einfach wahnsinnig viel zu entdecken.🤯 Ich mach es wohl wie jedes Jahr und lasse mich einfach treiben und freu mich auf viele alte und neue Kontakte! 🤩
Ich bzw. wir freuen uns wenn du mal Hallo sagst. Zuerst darf ich die Yellow Stage am ersten Tag eröffnen und danach wird man mich und viele aus dem snipKI Team an unserem Stand finden. Sag gern mal Hallo! 👋🏻
🧔🏻 Mein persönliches Update
Ich habe mit der neuesten Claude-Funktion „Cowork Live Artifacts” experimentiert. Damit kannst du Live-Dashboards mit deinen eigenen Datenquellen anlegen. Der Clou: Bei jedem Start wird das Dashboard automatisch aktualisiert. Was sich damit noch alles realisieren lässt, verrate ich dir in meinem Beitrag. Mit meinen Experimenten bin ich auf jeden Fall noch nicht fertig.🤩 Außerdem durfte ich für den aktuellen Impulse.de Artikel zum Thema "Erschöpfung durch KI" meine Meinung beisteuern.
💚 Was geht bei snipKI?
Wenn du dich für den KI-Führerschein für Einzelpersonen anmelden willst, hast du noch ein paar wenige Tage Zeit. Denn ab Anfang Mai geht's auch schon in die nächste Runde und unsere vierte Kohorte startet schon. Neben fünf neuen KI-Führerscheinen (unter anderem mit Social DNA, danke für den LinkedIn Post!
🙏🏻) in dieser Woche, laufen natürlich die Vorbereitungen für das OMR Festival. 🤯
Jetzt geht's weiter mit den Neuigkeiten und Updates.
Viel Spaß beim Lesen!
Jens
🚀 So unterstütze ich Teams beim Thema generative KI
Mein KI-Impuls der Woche
KI-Bilder „erkennen“: So kannst du sie (noch) erkennen.
47 Prozent der Deutschen trauen sich zu, KI-Inhalte als solche zu erkennen. Gleichzeitig haben 32 Prozent noch nie eine Methode genutzt, um das zu überprüfen. Diese Zahlen stammen aus dem Cybersicherheitsmonitor 2026 des BSI und der Polizeilichen Kriminalprävention. Grundlage ist eine repräsentative Befragung von 3.060 Personen im Januar 2026.
Ich arbeite seit fast drei Jahren täglich mit Bild- und Videokünstlicher Intelligenz und stelle fest: Es geht weniger darum, ein „gutes Auge“ zu haben, sondern eine brauchbare Prüfroutine zu entwickeln.
Warum unser Bauchgefühl nicht mehr reicht
Lange Zeit konnte man KI-Bilder anhand von Klassikern erkennen: komische Hände, falsche Schatten, verschwommene Schrift und seltsame Spiegelungen. Das wird gerade deutlich schwieriger und ist fast unmöglich, weil aktuelle Modelle konsistentere Details erzeugen und Bildfehler nicht mehr so offensichtlich sind. Gerade Videos wirken überzeugender, weil Bewegung, Licht und Perspektive besser zusammenpassen. Total verrückt.
Wenn dann noch ein glaubwürdiger Account, ein emotionaler Kontext oder eine vermeintlich aktuelle Nachricht hinzukommt, entscheidet oft nicht mehr das Bild allein, sondern das gesamte Umfeld. Genau deshalb ist „sieht irgendwie realistisch aus“ keine Methode mehr, sondern allenfalls der Startpunkt.
Drei Ansätze, mit denen du das überprüfen kannst
Ich würde es nicht an einem einzelnen Merkmal festmachen. Besser ist es eine kleine Routine zu entwickeln, die man fast automatisch abspult:
- Quelle und Kontext prüfen: Wer postet das Bild oder Video? Seit wann gibt es den Account und welche Absicht könnte dahinterstecken?
- Rückwärtssuche oder Detektor nutzen: Beide Methoden liefern keine endgültige Wahrheit, aber oft wichtige Hinweise, ob ein Motiv schon früher aufgetaucht ist oder technisch auffällig wirkt.
- Im Zweifel nicht teilen: Gerade bei emotionalen, politischen oder schockierenden Inhalten ist Zurückhaltung oft die beste Strategie.
Fünf weitere Tipps, um KI-Bilder besser zu erkennen
Erkennen kann man üben, aber eher im Sinne von Medienkompetenz als bei einem Suchbild. Mir helfen dabei diese fünf Gewohnheiten:
- Vergleiche bewusst: Schau dir regelmäßig echte Fotos und KI-Bilder nebeneinander an, um ein Gefühl für typische Unterschiede bei Licht, Haut, Texturen und Details zu entwickeln.
- Prüfe den Randbereich: Fehler verstecken sich oft nicht im Hauptmotiv, sondern in Hintergründen, Schriften, Reflexionen, Schatten oder kleinen Objekten.
- Achte auf Plausibilität: Frage dich, ob Szene, Perspektive, Wetter, Kleidung, Ort und Verhalten der Personen wirklich zusammenpassen.
- Nutze mehrere Werkzeuge: Kombiniere Rückwärtssuche, Quellencheck und Detektor, da jede einzelne Methode danebenliegen kann.
- Trainiere mit alten Beispielen: Nimm bekannte KI-Fakes oder verifizierte Bilder und überlege erst selbst, bevor du die Auflösung liest. So lernst du, worauf dein Blick reagiert und wo er dich täuscht.
Weitere gute Hinweise bietet das BSI auf seiner Website in Form einer Checkliste.
Meine KI-Top-News🏆
Was hat mich diese Woche in Sachen KI begeistert? Hier sind meine Highlights zu Technologien, Trends und Entwicklungen, die du keinesfalls verpassen solltest.
GPT-5.5 – OpenAIs neues Flaggschiff-Modell mit massiven Verbesserungen
OpenAI veröffentlicht GPT-5.5, das bei gleicher Geschwindigkeit wie GPT-5.4 deutlich intelligenter arbeitet und besonders beim agentischen Coding (82,7 Prozent auf Terminal-Bench), wissenschaftlicher Datenanalyse und Cybersecurity überzeugt. Das Modell kostet in der API 5 Dollar pro Million Input-Tokens und ist schon in der App verfügbar.
Evolution statt Revolution – aber mit klarer Richtung
Wenn man sich die Entwicklung anschaut, wirkt GPT-5.5 auf den ersten Blick wie ein klassisches Zwischenupdate. Die Geschwindigkeit ist gleich wie bei Version 5.4, aber die Leistung ist spürbar höher, vor allem in Bereichen, die aktuell wirklich genutzt werden. Gerade agentisches Coding, also eigenständiges Arbeiten in komplexeren Umgebungen, rückt weiter in den Fokus. Für mich ist das weniger ein einzelnes Feature als ein Hinweis darauf, wohin sich Modelle entwickeln: weg vom reinen Antworten, hin zum eigenständigen Umsetzen und Code ist da ein wichtiger Hebel.
Der eigentliche Knackpunkt liegt im Alltag
Ich glaube, der spannendste Teil ist gar nicht die Benchmark-Zahl an sich, sondern was das im Alltag bedeutet. Wenn Modelle verlässlicher codieren, analysieren und Sicherheitskontexte verstehen, verschiebt sich die Rolle von KI noch einmal ein Stück weiter in Richtung „Mitarbeitender“ statt Werkzeug.
Gleichzeitig steigt damit auch die Erwartung, dass die Ergebnisse wirklich belastbar sind. Die offene Frage für mich bleibt: Ab wann vertrauen wir solchen Systemen genug, um ihnen mehr Verantwortung zu übertragen, ohne ständig alles zu überprüfen?
Anthropic installiert heimlich Browser-Bridge bei Claude Desktop Installation
Claude Desktop installiert ohne Zustimmung eine Native Messaging Bridge in sieben verschiedenen Chromium-Browsern, die theoretisch vollen Zugriff auf Login-Daten, DOM-Inhalte und Formulareingaben ermöglicht. Der Sicherheitsexperte Alexander Hanff sieht darin einen Verstoß gegen die ePrivacy-Richtlinie und stuft es als Dark Pattern ein. Hier auch nochmal mein LinkedIn Post dazu.
Was steckt dahinter?
Technisch ist das, was hier beschrieben wird, erst einmal nichts völlig Abwegiges: Solche Bridges werden oft genutzt, um Desktop-Apps mit Browsern zu verbinden. Kritisch ist jedoch, wie es passiert: ohne klare Zustimmung und tief im System verankert. Genau da wird es heikel, weil du als Nutzer kaum nachvollziehen kannst, welche Zugriffe tatsächlich möglich sind.
Vertrauen ist entscheidend
Ich merke, wie schnell man bei solchen Themen ein ungutes Gefühl bekommt, selbst wenn konkreter Missbrauch gar nicht nachgewiesen ist. Am Ende geht es weniger um die einzelne Funktion als um die Frage, wie selbstverständlich sich Software Zugriff nimmt. Wenn KI-Tools im Alltag ankommen sollen, wird genau das zum Lackmustest: Vertrauen entsteht nicht durch Features, sondern durch saubere Entscheidungen im Hintergrund. Wie viel Zugriff würdest du einer KI auf deinen Browser wirklich geben?
ChatGPT führt Workspace Agents für automatisierte Team-Workflows ein
OpenAI bringt Workspace Agents in ChatGPT - KI-Assistenten, die wiederkehrende Aufgaben wie Lead-Qualifizierung, Berichtserstellung oder IT-Ticket-Management für ganze Teams übernehmen und auch ohne deine Anwesenheit weiterarbeiten können. Die cloudbasierten Agenten lassen sich in wenigen Minuten per Beschreibung erstellen, in Slack und ChatGPT nutzen und sind bis Mai 2026 kostenlos für Business- und Enterprise-Kunden verfügbar, danach mit zusätzlicher Abrechnung (hat mich überrascht ...)
Wenn KI im Hintergrund zu arbeiten beginnt
Was hier passiert, fühlt sich wie ein leiser, aber wichtiger Wandel an. Anstatt KI nur situativ im Chat zu nutzen, entstehen Systeme, die eigenständig weiterlaufen, Aufgaben übernehmen und sich in Teamprozesse einfügen. Gerade die Planbarkeit und die Integration in Tools wie Slack zeigen, dass es weniger um einzelne Ergebnisse geht und mehr um kontinuierliche Abläufe.
Es ist noch nicht perfekt, aber nah dran
Gleichzeitig merkt man, dass sich das Ganze noch in der Entwicklung befindet. Einige Integrationen fehlen, vieles wirkt noch eingeschränkt und das Thema Kosten steht bereits im Raum, bevor sich echte Routinen etabliert haben. Am Ende wird nicht die Featureliste entscheidend sein, sondern wie gut du deine eigenen Workflows wirklich durchdrungen hast, denn genau dort entscheidet sich, ob solche Agents dir Arbeit abnehmen oder nur zusätzliche Komplexität schaffen. Ein guter Start von OpenAI aber mit noch viel Luft nach oben. Gleichzeitig verwirrt mich aber auch die Produktstrategie von OpenAI. Für normale User ist es fast unmöglich wirklich zwischen Apps, GPTs, Agents und dann noch Codex als "kann fast alles" App zu unterscheiden. Bitte mal aufräumen! 😂
Unbefugte erhalten Zugriff auf Anthropics Cyber-Tool Mythos
Eine Gruppe Unbefugter hat Zugriff auf das Cybersecurity-Tool Mythos von Anthropic erlangt. Details zum Umfang des Zugriffs und möglichen Schäden sind unklar. Das Unternehmen hat den Vorfall bislang nicht bestätigt.
Wenn Sicherheit selbst zum Risiko wird
Dieser Fall zeigt, wie sensibel KI-Werkzeuge im Bereich der Cybersicherheit inzwischen geworden sind. Wenn ein exklusives Tool wie Mythos in die falschen Hände gerät, geht es nicht nur um einen einzelnen Zugriff, sondern auch darum, welche Fähigkeiten damit plötzlich außerhalb kontrollierter Umgebungen landen. Noch ist vieles unklar, gerade weil Anthropic den Vorfall bislang nicht bestätigt hat.
Vertrauen braucht Kontrolle
Spannend finde ich, dass ausgerechnet Sicherheitswerkzeuge selbst zu einem Sicherheitsproblem werden können. Je mächtiger solche Systeme werden, desto wichtiger wird nicht nur ihre Leistungsfähigkeit, sondern auch die Frage, wer sie nutzen darf und wie gut dieser Zugang abgesichert ist. Würdest du einem KI-Cybertool mehr vertrauen, nur weil es von einem großen Anbieter stammt?
ChatGPT Images 2.0 – OpenAIs neue Bildgenerierung ist da
OpenAI hat ChatGPT Images 2.0 vorgestellt, eine verbesserte Version der Bildgenerierung direkt in ChatGPT. Du kannst zwischen verschiedenen Formaten wählen und Bilder in einem klassischen oder neuen Modus erstellen. Ich hab mich immer gefragt: Was kann bei KI-Bildern noch besser werden, hier eine Antwort. Einige Beispiele findest du auch in meinem LinkedIn Post dazu.
Bildgenerierung wird präziser
Mit ChatGPT Images 2.0 wird die Bildqualität deutlich kontrollierbarer. Vor allem Layouts, Typografie und Details funktionieren spürbar besser. auch bei komplexeren Formaten wie Postern oder Infografiken. Gleichzeitig sind die Ergebnisse stilistisch vielseitiger und insgesamt konsistenter. Gerade wenn es um viel Text und komplexen Darstellungen von Informationen angeht, ist das Modell aktuell unschlagbar. Aber das wird sich in ein paar Monaten sicherlich wieder ändern.
Mehr Kontrolle statt Zufall
Die Generierung wirkt weniger zufällig und deutlich zielgerichteter. Ideen lassen sich genauer umsetzen, statt nur grob interpretiert zu werden. Dadurch wird Bild-KI im Alltag praktischer, vor allem, wenn schnell nutzbare Entwürfe gefragt sind. Ich bin wie immer gespannt was das Internet und die Kreativität der User mit dem neuen Modell noch so erstellen wird.
Meta nutzt Mitarbeiterdaten für das KI-Training
Woher KI-Trainingsdaten nehmen? Wie wäre es mit den eigenen Mitarbeitenden? In den USA installiert Meta auf Bürorechnern eine Software, die Mausbewegungen, Klicks, Tastenanschläge und teilweise auch Screenshots erfasst. Damit werden KI-Modelle für Computeraufgaben trainiert. Das Unternehmen betont, dass die Daten nicht für Leistungsbewertungen genutzt werden. Diese Praxis dürfte in der EU jedoch rechtlich problematisch sein.
KI-Training am Arbeitsplatz
Hier wird ziemlich deutlich, wie groß der Bedarf an realen Nutzungsdaten für KI-Agenten geworden ist. Wenn Modelle lernen sollen, Computeraufgaben zu übernehmen, benötigen sie Beispiele aus echten Arbeitsabläufen. Gleichzeitig wird es heikel, sobald Mausbewegungen, Tastenanschläge und Screenshots auf Bürorechnern erfasst werden. Auch wenn Meta betont, dass es nicht um Leistungsbewertung geht.
Daten sind nicht neutral
Dieser Fall macht meiner Meinung nach gut sichtbar, wie schnell KI-Training in Bereiche rutscht, die sich für Mitarbeitende unangenehm anfühlen können. Selbst wenn die Absicht technisch nachvollziehbar ist, bleiben die Fragen nach Freiwilligkeit, Transparenz und Grenzen bestehen. Gerade bei Arbeitsplatzdaten reicht ein Hinweis auf Innovation nicht aus, da Vertrauen dort besonders schnell verspielt ist. Wie würdest du dich fühlen, wenn dein Arbeitsrechner plötzlich zum Trainingsmaterial für KI wird?
snipKI Spotlight 😎
Jede Woche posten wir Webinarankündigungen, unsere Lieblingssnips, kurze Umfragen oder stellen unsere snipKI-Autoren vor. Mehr über snipKI erfahren
📆 Nur noch 4 Tage - Sichere dir deinen Platz im KI-Führerschein für Einzelpersonen!
Der KI-Führerschein, der im Mai startet, vermittelt dir die Grundlagen für den praktischen Einsatz von KI im Alltag. Wenn du KI bisher eher punktuell ausprobierst, ist das dein perfekter Einstieg in die Arbeit mit KI. Die Anmeldefrist endet in wenigen Tagen. Wir freuen uns auf deine Teilnahme!
👉 Sichere dir jetzt deinen Platz
💡 Mit deiner snipKI Mitgliedschaft erhältst du vollen Zugriff auf alle 500+ Tutorials, Events und unsere Community – und machst KI zu deinem echten Wettbewerbsvorteil. 🚀
Deine Passion ist das Thema KI und du willst Menschen weiterbringen?
Wir suchen neue snipKI Educator, also Menschen, die KI nicht nur spannend finden, sondern täglich damit arbeiten.
Gemeinsam unterstützen wir Unternehmen beim KI-Führerschein, auf unserer Videoplattform und bei konkreten KI-Implementierungen. Dabei geht es nicht um Theorie, sondern um echte Use Cases, die im Arbeitsalltag funktionieren.
Du solltest KI als Daily Driver nutzen, Tools wie ChatGPT, Claude, Gemini, Copilot oder n8n kennen und Lust auf ein starkes Team haben.
Dafür bekommst du Projekte, Sparring, wöchentliche Calls und eine Truppe, mit der KI einfach noch mehr Spaß macht.
Wenn du Lust hast, Teil unserer KI-Truppe zu werden, bewirb dich hier.
Gut zu wissen 📰
Was passiert sonst noch in Sachen KI? Die folgenden Neuigkeiten zum Thema Künstliche Intelligenz solltest du im Auge behalten.
-
Google macht DESIGN.md Open-Source für KI-gestütztes Design: Google öffnet das DESIGN.md-Format aus Stitch als Open-Source-Spezifikation, damit KI-Tools plattformübergreifend Design-Regeln verstehen und markengerechte Benutzeroberflächen erstellen können. Die Spezifikation ermöglicht es KI-Agenten, Designabsichten zu erkennen und automatisch Barrierefreiheitsregeln zu prüfen.
-
Mythos findet 271 Sicherheitslücken in Firefox: Laut Mozilla hat Mythos von Anthropic insgesamt 271 bisher unbekannte Zero-Day-Schwachstellen im Browser Firefox identifiziert. Die Funde zeigen, dass KI-Systeme zunehmend in der Lage sind, komplexe Software automatisiert auf Sicherheitsprobleme zu analysieren.
-
KI-Forscheragenten bekommen eigenes soziales Netzwerk: Mit „Agent4Science” ist eine Plattform entstanden, auf der autonome Forschungsagenten wissenschaftliche Arbeiten teilen, diskutieren und kommentieren können. Menschen können die Beiträge lediglich beobachten, während die eigentliche Interaktion den KI-Systemen vorbehalten bleibt.
-
Die deutsche Industrie setzt KI ungleich ein: Auf der Hannover Messe ist das Thema deshalb ein zentraler Schwerpunkt, denn viele Industrieunternehmen in Deutschland nutzen KI bereits. Vor allem kleine und mittlere Unternehmen haben beim Einsatz noch Schwierigkeiten oder stehen erst am Anfang.
-
Sprachmodelle machen Massendaten für Überwachung noch nutzbarer: Große Sprachmodelle könnten kommerziell verfügbare Massendaten deutlich leichter auswertbar machen und sie somit für Überwachungszwecke wertvoller werden lassen. Dadurch steigt das Risiko, dass sich Personenprofile, Verhaltensmuster und sensible Informationen schneller, günstiger und umfassender aus großen Datenbeständen ableiten lassen.
-
Google stellt Strike-Team für bessere KI-Coding-Modelle auf: Das Unternehmen hat ein internes Team gebildet, das gezielt an der Verbesserung seiner KI-Modelle für die Programmierung arbeitet. Das Ziel besteht darin, Schwächen in Bezug auf die Codequalität, Zuverlässigkeit und praktische Nutzbarkeit schneller zu identifizieren und zu beheben.
-
Amazon investiert weitere Milliarden in Anthropic: Amazon hat seine Investition in das KI-Unternehmen Anthropic deutlich ausgeweitet und stellt weitere Milliarden US-Dollar bereit. Das Ziel besteht darin, die Zusammenarbeit im Bereich der generativen KI zu intensivieren und die Modelle von Anthropic stärker in die AWS-Dienste zu integrieren.
-
Deezer meldet hohen Anteil KI-generierter Musik: Laut dem Unternehmen sind 44 Prozent der neu hochgeladenen Songs auf der Plattform KI-generiert. Ein Großteil der Streams dieser Inhalte wird als betrügerisch eingestuft und steht im Zusammenhang mit Manipulationsversuchen.
-
KI wird zum Wahlkampfthema in den USA: Laut The Verge wächst in den USA der Widerstand gegen KI, vor allem aufgrund von Rechenzentren, möglicher Jobverluste und Forderungen nach mehr Regulierung. Im laufenden Wahlkampf spielt das Thema national zwar noch eine Nebenrolle, gewinnt aber lokal an Gewicht und zieht bereits Millionen an Lobbygeldern und politischem Engagement an.
-
TU Dortmund und Wilo starten Partnerschaft für Wasser und KI: Die TU Dortmund und die Wilo Group haben eine Absichtserklärung für die Zusammenarbeit in der Wilo Global WATER AI Academy unterzeichnet. Zum Start soll ein Zertifikatskurs mit dem Titel „WATER AI” entstehen. Zudem sind weitere Projekte geplant, um KI für die Wasserversorgung und smarte Wassersysteme nutzbar zu machen.
-
KI-Untergangsszenarien prägen die Risikodebatte: In der KI-Forschung werden Warnungen vor existenziellen Risiken lauter und mögliche Langzeitfolgen rücken stärker in den Mittelpunkt. Zugleich wächst die Sorge, dass solche Szenarien von konkreten, aktuellen Problemen wie Missbrauch, Machtkonzentration und mangelnder Kontrolle ablenken.
-
Die NSA setzt Anthropics „Mythos” für Cybersicherheit ein: Um ausnutzbare Schwachstellen in IT-Umgebungen zu finden, nutzt die NSA das KI-Modell „Mythos Preview“ von Anthropic. Dies ist bemerkenswert, da das Pentagon Anthropic zuvor als Risiko in der Lieferkette eingestuft hatte und es Streit über den Zugriff auf die Modelle gab.
-
Chinesische Tech-Mitarbeiter trainieren ihre KI-Doppelgänger: In China entstehen Projekte, mit denen sich das Arbeitswissen und die typischen Aufgaben einzelner Mitarbeiter in wiederverwendbare KI-Profile übertragen lassen. Das löst Widerstand aus, da viele Beschäftigte darin nicht nur ein neues Tool sehen, sondern auch die Sorge vor Austauschbarkeit und Kontrollverlust haben.
-
SpaceX prüft die Übernahme des KI-Start-ups Cursor: SpaceX arbeitet mit dem KI-Start-up Cursor zusammen und hat sich eine Option zur Übernahme gesichert, die das Unternehmen mit rund 60 Milliarden Dollar bewerten würde. Die Zusammenarbeit deutet auf ein strategisches Interesse an KI für die Softwareentwicklung und die internen Prozesse hin.
-
Vollautomatisierte Unternehmen sind technisch möglich: Experten zufolge können KI-Systeme bereits heute viele zentrale Unternehmensprozesse eigenständig steuern und Entscheidungen treffen. Vollständig automatisierte Unternehmen scheitern derzeit jedoch weniger an der Technik als an rechtlichen, organisatorischen und kulturellen Hürden.
-
Die öffentlich-rechtlichen Sender fordern Regeln für die KI-Nutzung: Die ARD und das ZDF verlangen klare gesetzliche Vorgaben für den Einsatz von KI im Medienbereich sowie den Schutz journalistischer Inhalte vor einer unkontrollierten Nutzung durch KI-Systeme. Unter anderem verlangen sie Transparenzpflichten, Vergütungsmodelle und rechtliche Klarheit im Umgang mit Trainingsdaten.
-
Künstliche Intelligenz verändert die Arbeit von Finanzjournalisten: KI-Tools werden in Redaktionen zunehmend für Recherche, Analyse und Textentwürfe eingesetzt und verändern damit die Arbeitsprozesse im Finanzjournalismus. Gleichzeitig bleibt die menschliche Einordnung entscheidend, da KI-Inhalte ohne Kontext oder Bewertung geliefert werden.
-
Unitree zeigt humanoiden Roboter mit Rädern an den Füßen: Der chinesische Roboterhersteller Unitree hat einen humanoiden Roboter vorgestellt, der sowohl laufen als auch auf eingebauten Rädern fahren kann. Das hybride Design kombiniert die Vorteile der menschlichen Form mit erhöhter Mobilität durch Rollen.
Tools & Tool-Updates 🛠️
Freu dich auf sofort einsetzbare KI-Tools und spannende Updates für deine
bestehende KI-Toolbox.
-
Einführung von OpenAI Privacy Filter: OpenAI stellt den Privacy Filter vor, ein Modell zur Erkennung und Maskierung persönlich identifizierbarer Informationen (PII) im Text. Das Modell kann lokal laufen und bietet erweiterte Kontextsensitivität für bessere Privatsphäre im Umgang mit unstrukturiertem Text.
-
Deep Research Max – Googles KI-Agent für autonome Recherche mit Gemini 3.1 Pro: Google stellt Deep Research Max vor, einen KI-Agenten auf Basis von Gemini 3.1 Pro, der eigenständig umfassende Recherchen durchführt, proprietäre Datenquellen via MCP anbindet und automatisch Diagramme sowie zitierte Analyseberichte erstellt. Der Agent ist ab sofort in der Gemini API verfügbar und wird bereits von Finanzdienstleistern wie FactSet und S&P genutzt.
-
Claude Managed Agents mit Speicherfunktion in der öffentlichen Beta: Jetzt können deine Claude Managed Agents aus jeder Sitzung lernen, indem sie eine speicheroptimierte Schicht nutzen, die Leistung und Flexibilität ausbalanciert. Entwickler haben die volle Kontrolle über die gespeicherten Erinnerungen, die als Dateien exportiert und über die API verwaltet werden können.
-
Microsoft 365 Copilot Cowork im Frontier-Programm: Microsoft hat Copilot Cowork im Rahmen des Frontier-Programms eingeführt, das dir die Automatisierung von Aufgaben und die Optimierung von Arbeitsabläufen ermöglicht. Mit Funktionen wie Kalenderverwaltung und täglichem Briefing hilft Copilot Cowork, effektive Arbeitspläne zu erstellen und Aufgaben nahtlos zu koordinieren.
-
Google startet Gemini Enterprise Agent Platform für KI-Agenten: Google bringt mit der Gemini Enterprise Agent Platform ein System, das dir hilft KI-Agenten zu erstellen, verwalten und zu kontrollieren. Die Plattform vereint Model Garden mit über 200 KI-Modellen und neue Werkzeuge wie Agent Studio für Low-Code-Entwicklung, wodurch du Agenten bauen kannst, die mehrere Tage eigenständig arbeiten.
-
Replit Auto-Protect – Automatisierte CVE-Überwachung: Mit Replit Auto-Protect werden neue kritische Sicherheitslücken automatisch überprüft und Patches vorbereitet. Du erhältst eine E-Mail-Benachrichtigung, um in zwei Klicks Anpassungen vorzunehmen und deine App neu zu veröffentlichen.
-
Claude-Carbon berechnet CO₂-Ausstoß beim KI-Coding: Ein neues Tool zeigt dir den CO₂-Verbrauch deiner Claude-Code-Sessions direkt in der Statuszeile an. Der Entwickler konnte seinen eigenen Ausstoß durch optimierte Modellwahl und Einstellungen um bis zu 70 Prozent senken.
-
Make CLI für Entwickler und KI-Agenten: Mit dem neuen Make CLI kannst du Make über die Befehlszeile nutzen, um Szenarien, Verbindungen und Daten zu verwalten. Es ist ideal für Entwickler, die Make in ihren Entwicklungs-Workflow integrieren und KI-Agenten programmatisch verbinden möchten.
-
ChatGPT für Excel und Google Sheets verfügbar: Mit ChatGPT kannst du jetzt Tabellen in Excel und Google Sheets erstellen, analysieren und aktualisieren. Es ist weltweit für Nutzer:innen von ChatGPT Business, Enterprise, Edu sowie Pro und Plus verfügbar.
-
Ideogram – Individuelle Bildmodelle für Marken: Mit Ideogram kannst du benutzerdefinierte Modelle erstellen, die speziell auf deine Markenästhetik und visuellen Identitäten zugeschnitten sind. Lade 15 bis 100 Bilder hoch, trainiere dein Modell und generiere Designinhalte, die deine Marke widerspiegeln, ohne dass Kenntnisse in Infrastruktur oder GPU-Management nötig sind.
-
Tolaria – Open-Source Notiz-Tool mit Git und Claude Integration: Tolaria ist eine kostenlose Open-Source-App für macOS, die deine Notizen als Markdown-Dateien speichert und Git-Versionierung sowie einen MCP-Server für Claude Code direkt integriert hat. Das Tool kombiniert einen Block-Editor im Notion-Stil mit voller Kontrolle über deine Daten, da alle Notizen lokal als einfache Textdateien gespeichert werden.
-
Latitude startet KI-Plattform für Rollenspiele: Mit Voyage hat das Unternehmen eine Plattform vorgestellt, auf der Nutzer eigene textbasierte Rollenspielwelten mit KI erstellen und spielen können. Die Plattform generiert Figuren, Quests und Spielmechaniken dynamisch. Sie befindet sich derzeit in einer erweiterten Beta-Phase und soll später im Jahr öffentlich starten.
-
Google bringt das Marketing-Tool Pomelli nach Europa: Google macht sein KI-Marketing-Tool Pomelli in der EU sowie in weiteren europäischen Ländern verfügbar – vorerst auf Englisch. Das Tool analysiert die Website eines Unternehmens, leitet daraus den Markenstil und die Tonalität ab und erstellt auf dieser Grundlage Inhalte und Produktbilder für Webseiten, Social Media oder Anzeigen.
-
Kimi K2.6 – Open-Source-KI für autonomes Programmieren und Multi-Agenten-Systeme: Moonshot AI veröffentlicht Kimi K2.6 als Open-Source-Modell, das komplexe Programmieraufgaben über mehr als 12 Stunden autonom bewältigt und dabei über 4.000 Tool-Aufrufe koordiniert. Das Modell kann bis zu 300 parallele KI-Agenten steuern und erreicht auf Coding-Benchmarks wie SWE-Bench Pro (58,6 Prozent) vergleichbare Werte wie GPT-5.4 und Claude Opus 4.6.
-
Browser Harness – Selbstheilendes Browser-Framework für LLMs: Browser Harness ermöglicht es großen Sprachmodellen, beliebige Aufgaben im Browser durchzuführen, indem es ein selbstheilendes Gerüst bereitstellt. Es benötigt keine komplizierten Setups oder Frameworks und kann durch einfaches Hinzufügen und Anpassen von Funktionen in Python erweitert werden.
-
Google bringt Gemini in Chrome in weitere Länder: Google erweitert die Integration seines KI-Assistenten Gemini im Chrome-Browser auf sieben weitere Länder. Damit kannst du direkt im Browser Inhalte zusammenfassen, Fragen stellen und Texte generieren. Deutschland ist natürlich noch nicht dabei. 😅
🗺️ Dein Navigator in der KI-Welt!
🚀 So unterstütze ich Unternehmen
- Vorträge - die Lust auf das Thema machen
- Workshops - die das Thema greifbar machen
- Updates - Um nicht abgehängt zu werden
- Integrationen - KI sicher und sinnvoll einsetzen
👉🏻 Hier findest du alle Infos (+ Auswahl einiger Referenzen)
Übrigens sind alle Ressourcen, die ich mit dir teile – einschließlich Sponsoren-Links (die ich markieren muss) – für Tools, die ich selbst benutze oder benutzen würde, wenn ich den Bedarf hätte. Ich empfehle dir wirklich nur Dinge, hinter denen ich stehe!
Jens.Marketing
Lerchenweg 4, 50997 Köln