jens.marketing
KI-NewsletterAusgabe #407Sonntag · 28. Februar 2026

Nano Banana 2, Perplexity Computer & mein Agenten-Team 🤖

Jens PolomskiZum Archiv
Worum es geht

Herzlich willkommen zur 168. Ausgabe meines Newsletters! Kaum bricht endlich der Frühling an, geht vieles leichter von der Hand, oder? Genau so scheint es KI-Anbietern und ihren Modellen zu gehen. Ein Update oder ein neues Modell jagt das nächste. 🤯 Mach dich also auf…

Im Original

Herzlich willkommen zur 168. Ausgabe meines Newsletters!

Kaum bricht endlich der Frühling an, geht vieles leichter von der Hand, oder? Genau so scheint es KI-Anbietern und ihren Modellen zu gehen. Ein Update oder ein neues Modell jagt das nächste. 🤯 Mach dich also auf eine lange Ausgabe des KI-Newsletters gefasst! 😁

🧔🏻 Mein persönliches Update

Ich konnte meinen Augen nicht trauen als ich diese Woche die „Skills im Trend 2026" für den Marketingbereich gesehen habe. 😆 Mega, dass mein LinkedIn Learning Kurs "Generative KI im Marketing" als Lernressource auf Platz 1 steht. 🥳

Im Podcast t3n Arbeit in Progress habe ich über die Anwendung von KI-Agenten wie OpenClaw in meinem Arbeitsalltag gesprochen. Die Folge kannst du dir hier anhören.

Außerdem durfte ich diese Woche beim Offsite der Marke snipes über Agenten, Automatisierung und Neo sprechen.

💚 Was geht bei snipKI?

Diese Woche fand unser nächstes Webinar zum Thema Content-Recycling statt mit über 400 Teilnehmern und 750 Anmeldungen. 🥳 

Und was ist passiert? Unser Webinar Anbieter hatte ein technisches Problem und die Aufnahme sowie auch das Backup waren nicht vorhanden. So viel zum Thema Recycling. 😂 Da kann auch KI nicht mehr helfen. Für alle snipKI Mitglieder arbeiten wir aber bereits an einer Lösung, stay tunes. 😁

Außerdem gibt es heute für dich mal wieder ein kostenloses KI-Tutorial (von über 500).

Und jetzt viel Spaß beim Lesen, ausprobieren, testen und mehr! 🚀

Jens

🚀 So unterstütze ich Teams beim Thema generative KI  

­ ­

Mein KI-Impuls der Woche

­

Wie mein OpenClaw zu einem 8-Agenten Team wurde

Ich erinnere mich noch gut an die erste Version meines OpenClaw-Bots: Neo, mein Telegram-Assistent, der meine Meetings im Blick hatte und mich an Termine erinnerte. Im Rückblick war das eher ein smarter Timer mit Textverständnis. Inzwischen ist daraus ein achtköpfiges KI-Team in Discord geworden, das rund um die Uhr arbeitet, kanalübergreifend agiert und bei Bedarf eigene Tools entwickelt. Das fühlt sich weniger nach einer Funktion und mehr nach einer kleinen Organisation an.

Was heute schon möglich ist

Diese Agenten können Daten ziehen, analysieren, Entscheidungen vorschlagen und Aktionen ausführen, ohne dass ich jeden Schritt manuell auslösen muss. Sie übernehmen Recherchen, schreiben LinkedIn-Posts, kuratieren Newsletter, überwachen Ads und generieren Content inklusive Bildern und das alles in einem durchgängigen Workflow in Discord. Besonders spannend ist, dass sie Lücken selbst schließen. Fehlt ein Scraper, schreiben sie ein Script. Ist ein Prozess optimierbar, schlagen sie konkrete Änderungen vor und setzen sie um. Dadurch entlasten sie bei Routineaufgaben, sodass mehr Zeit für Strategie und Qualitätskontrolle bleibt. Ach und meinen Google Ads Account verwaltet er auch. 🤯 (mal schauen wie gut es wird 😂)

Wo die Grenzen liegen

Perfect? Nein, natürlich nicht. Macht aber gar nichts. Trotz aller Anstrengungen sind die Agenten nicht fehlerfrei oder magisch. Sie sind stark von sauberen Integrationen und zuverlässigen Datenquellen abhängig. Wenn die Anbindung bricht oder die Daten verzerrt sind, werden falsche Schlüsse gezogen. Agenten können überinterpretieren, Halluzinationen produzieren oder Sicherheits- und Datenschutzrisiken schaffen, wenn Leitplanken fehlen. 

Es kostet Zeit, die richtigen Leitplanken, Überwachungsprozesse und Verantwortlichkeiten zu definieren – und Erfahrung, um vorherzusehen, wo etwas schiefgehen kann. Auch der Betrieb und die Wartung sind nicht trivial: Updates, Kosten und das Debugging bleiben noch menschliche Aufgaben.

Ich glaube trotzdem, dass „Agenten managen” bald zu den Kernkompetenzen gehören wird: weniger Programmieren, mehr Prozessdenken, Vorstellungskraft und Verantwortungsbewusstsein. Arbeitest du schon mit OpenClaw? Wenn ja, wofür?

­ ­

Meine KI-Top-News🏆

­

Was hat mich diese Woche in Sachen KI begeistert? Hier sind meine Highlights zu Technologien, Trends und Entwicklungen, die du keinesfalls verpassen solltest.

Anthropic vs. Pentagon – warum es uns auch betrifft

Anthropic (Entwickler von Claude) weigert sich, dem US-Militär uneingeschränkten Zugriff auf seine KI zu geben. Das Unternehmen zieht zwei rote Linien: keine Massenüberwachung und keine autonomen Waffen ohne menschliche Kontrolle. Das Pentagon wollte KI „für alle legalen Zwecke" – ohne Limits.

Die Folgen: Trump ordnete an, Anthropic aus allen US-Behörden zu verbannen. Verteidigungsminister Hegseth stufte das Unternehmen als „Supply-Chain-Risiko" ein. Nur Stunden später sicherte sich Konkurrent OpenAI einen Pentagon-Deal.

Warum es auch für uns relevant ist:

  • Der Konflikt entscheidet eine Grundsatzfrage: Dürfen KI-Firmen eigene Sicherheitsregeln setzen – oder diktiert der Staat die Nutzung?

  • Europäische Unternehmen und Behörden, die US-KI nutzen, sind indirekt betroffen.

  • Die Debatte um KI im Militär wird auch für Bundeswehr und NATO relevant.

Ich finde, Anthropic zeigt hier echten Mut. Sich gegen die mächtigste Regierung der Welt zu stellen – und dafür Milliarden-Aufträge zu riskieren – das ist in der Tech-Branche alles andere als selbstverständlich. Während andere Anbieter sofort in die Lücke springen, hält Anthropic an seinen Prinzipien fest. Das verdient Respekt. Und es erinnert uns alle daran: Wir müssen über die Risiken von KI sprechen – nicht erst, wenn es zu spät ist. Autonome Waffen, Massenüberwachung, unkontrollierter Einsatz – das sind keine Science-Fiction-Szenarien mehr, sondern reale Verhandlungspunkte auf dem Tisch des Pentagons. Wer KI entwickelt, nutzt oder darüber entscheidet, trägt Verantwortung. Anthropic nimmt diese Verantwortung ernst.

Nano Banana 2: Neues Bildmodell mit starkem Preis-Leistungs-Sprung

Google hat mit „Nano Banana 2” den Nachfolger seines Bildmodells vorgestellt, das nun die Grundlage für „Gemini 3.1 Flash Image” bildet. Das Modell liefert Pro-Qualität, kostet aber nur die Hälfte und arbeitet flexibler, präziser und bis zur 4K-Auflösung direkt in einer Umgebung – von der schnellen Skizze bis zum fertigen Motiv.

Googles Angriff auf den Bildmodell-Markt

Nano Banana 2 zeigt, wie stark Google derzeit auf Effizienz und Integration setzt. Die Verbindung von generativer Bild-KI mit Such- und Übersetzungsfunktionen macht das Modell alltagstauglicher, während der Preisrutsch klare Signale an ByteDance, OpenAI und Co. sendet. Es fühlt sich an, als wolle Google die Bildgenerierung nicht mehr als Spezialdisziplin, sondern als Standardfeature im eigenen Ökosystem verankern und baut es deshalb auch in fast alle Google Tools ein.

Die Qualität ist da – jetzt zählt Verlässlichkeit

Ich habe Nano Banana 2 selbst ausprobiert. Die Ergebnisse wirken konsistenter, besonders bei Text und feinen Details. Auch die neuen Bildformate, Auflösungen und die Kombination aus bis zu 5 Charakteren und 14 Objekten macht das Modell zu einem ordentlichen Update. Ich werde weiter testen.

Builders Unscripted: OpenClaw – Peter Steinberger über Bauen mit Codex

In der neuen OpenAI-Video-Reihe „Builders Unscripted“ erzählt Peter Steinberger, wie er das Open-Source-Tool OpenClaw gebaut hat und wie ihm Codex beim Programmieren hilft. Du bekommst einen Einblick, wie KI-Tools Software schneller entstehen lassen und wie man mit Agenten Aufgaben im Code Schritt für Schritt umsetzen kann.

Warum OpenClaw und Codex relevant sind

Das Video veranschaulicht ein Entwicklungsparadigma, das weniger auf manuelles Tippen setzt und mehr auf die Orchestrierung zwischen Entwickler und Modell – mit einem klaren Fokus auf Zuverlässigkeit: Code zu generieren ist nützlich, ihn reproduzierbar und wartbar zum Laufen zu bringen ist jedoch entscheidend.

Vom Coder zum Orchestrator: Chancen und Fragen

Mich beeindruckt, wie sich die Rolle des Entwicklers verändert. Weg vom reinen Schreiben von Zeilen, hin zum Entwerfen von Aufgaben, Prüfschritten und Verantwortungsgrenzen. Dadurch verschiebt sich der kreative Schwerpunkt auf das „Was” und „Warum” eines Systems. Gleichzeitig bringt das neue Anforderungen an Testing, Nachvollziehbarkeit und Verantwortlichkeit mit sich – produktiver bauen heißt also auch bewusster prüfen.

Perplexity Computer bündelt 19 KI-Modelle in einem System

Mit Perplexity Computer kannst du Projekte von Recherche über Design und Code bis zu Deployment und Verwaltung in einem Ablauf erledigen, wobei Aufgaben parallel über bis zu 19 Modelle verteilt werden. Es ist zuerst im Web für Max-Abonnenten verfügbar und nutzt verbrauchsbasierte Preise mit Modellwahl, Ausgabenlimit und 10.000 Credits pro Monat für Max.

Orchestrierung mehrerer Modelle

Perplexity geht einen Schritt weiter als klassische Chat-Interfaces, indem es mehrere spezialisierte Modelle gleichzeitig einsetzt, um ganze Projekt-Pipelines abzubilden – von der Recherche bis zum Deployment. Technisch gesehen ist das weniger eine einzelne „Super-KI” als ein Koordinationslayer, der Aufgaben an verschiedene Experten verteilt. Für Teams könnten sich dadurch Abläufe beschleunigen, gleichzeitig steigt jedoch die Komplexität bei Kontrolle, Kostenmanagement und Qualitätsprüfung.

Effizienz gewinnt, Kontrolle bleibt die Kunst

Modelle werden gezielt kombiniert, nicht ersetzt. Das kann viel Zeit sparen, macht aber das Monitoring wichtiger denn je: Wer stoppt den Prozess, wenn etwas schiefläuft? Für mich bedeutet das mehr Produktivität, wenn man bereit ist, Verantwortung und Kontrollmechanismen neu zu organisieren.

Claude Enterprise: Cowork bekommt private Plugin-Marktplätze und neue Connectoren

Du kannst jetzt in Claude Enterprise private Plugin-Marktplätze anlegen, Cowork nutzen, Plugins leichter erstellen und als Admin besser steuern, welche Plugins und Connectoren Teams nutzen dürfen, inklusive Tracking von Nutzung und Kosten.

Mehr Governance, weniger Wildwuchs

Unternehmen können eigene Plug-in-Stores aufbauen, Zugriffsrechte zentral vergeben und den Verbrauch sowie die Kosten im Blick behalten. Technisch gesehen ist das weniger ein Feature-Feuerwerk als eine Verwaltungsschicht, die es Teams ermöglicht, Integrationen kontrolliert zu skalieren, ohne dass jede Abteilung eigenmächtig eigene Connectoren einführt.

Nützlich, solange die Kontrolle nicht zur Bremse wird

Es ist gut zu sehen, dass Governance und Transparenz ernst genommen werden, denn das schafft Vertrauen bei der IT und der Compliance-Abteilung. Gleichzeitig gilt: Wenn Admins zu restriktiv werden, erstickt das Innovation. Die Herausforderung wird darin bestehen, eine Balance zu finden, in der Sicherheit und Experimentierfreude zusammengehen.

Google Flow: Neue Oberfläche trifft auf erweitertes Kreativstudio

In Flow kannst du jetzt Bilder und Videos in einem Bereich erstellen, bearbeiten und animieren. Ab März stehen dir auch Gratis-Bilder sowie der Umzug von Whisk- und ImageFX-Projekten in die Flow-Bibliothek zur Verfügung. Neu sind eine optimierte Dateiverwaltung, ein Auswahlwerkzeug für gezielte Änderungen per Text oder Zeichnung sowie Funktionen wie Clip-Verlängerung, Hinzufügen/Entfernen von Objekten und einfache Kamerabewegungen. Damit positioniert Google Flow als integriertes KI-Kreativstudio mit überarbeiteter Oberfläche und Tools für einen durchgängigen Workflow.

Flow wird zur zentralen Arbeitsumgebung für visuelle Projekte

Google konsolidiert bisher verteilte Werkzeuge und erlaubt nun, Bilder und Videos in einem einzigen Interface zu erstellen, zu verfeinern und zu verwalten. Dadurch werden Tool-Wechsel im Produktionsprozess reduziert und es entsteht Raum für iteratives Arbeiten direkt im Projektkontext – von groben Entwürfen bis zu feinen Retuschen und einfachen Animationen.

Nützlichkeit hängt von Verlässlichkeit und Kontrolle ab

Der Ansatz eines einheitlichen Kreativstudios gefällt mir, denn weniger Klicks zwischen Apps sind ein klarer Gewinn. Gleichzeitig frage ich mich, ob die KI-Änderungen transparent und reversibel genug sind, um sie in professionellen Workflows zu verantworten. Produktiver zu arbeiten bedeutet nicht automatisch, weniger Kontrollpunkte zu haben.

Taalas brennt KI Modell direkt in einen Chip

Taalas hat ein stark komprimiertes Llama-3.1-8B-Modell direkt ins Silizium gegossen und behauptet, damit bis zu 17.000 Tokens pro Sekunde bei einer Latenz von etwa einer Millisekunde zu erreichen – und das ganz ohne GPU, RAM oder ständiges Datenverschieben. Das klingt nach einem Infrastrukturversuch: Die Geschwindigkeit ist enorm, die Modellqualität bleibt aber hinter Spitzenlösungen zurück.

KI-Beschleunigung direkt auf Silizium

Das Modell ist Teil des Chips, wodurch Energiebedarf und Latenz sinken. Gleichzeitig geht Flexibilität verloren, denn ein eingebranntes Modell lässt sich nicht patchen oder feintunen. In den Ausgaben treten Halluzinationen und Qualitätsgrenzen auf. Das verschiebt die Abwägung: Tempo gewinnt an Bedeutung, bringt aber nur dann echten Nutzen, wenn Verlässlichkeit und Kontrollierbarkeit folgen.

Ein Vorgeschmack auf spezialisierte KI-Hardware

Das Unternehmen verspricht, dass seine Technik bis zu 20-mal günstiger und zehnmal energieeffizienter ist als GPU-Setups. Das sollte man prüfen. Geschwindigkeit verändert viele Anwendungsfälle, doch heute wirkt das Ganze wie ein Prototyp mit klaren Limitationen. 

In der öffentlichen Demo, die ich mir angeschaut habe, wurden 13.205 Zeichen in 0,248 Sekunden angezeigt, die Antwort erschien ohne Ladeanimation. Die Darstellung macht die Geschwindigkeit siliziumbasierter Modelle deutlich, zeigt aber gleichzeitig Qualitätsmängel. Für mich bleibt das Projekt deshalb ein Experiment und kein sofort produktreifer Ersatz für GPU basierte Systeme.

UN gründet wissenschaftliches KI-Gremium

Die Vereinten Nationen haben ein unabhängiges, internationales wissenschaftliches Gremium eingesetzt. Dieses soll die Auswirkungen von künstlicher Intelligenz analysieren und wird in seiner Struktur mit dem Klimarat IPCC verglichen. Dutzende Forschende aus verschiedenen Ländern sollen evidenzbasierte Bewertungen liefern, um Regierungen und politische Entscheidungsträger über die Chancen und Risiken von KI zu informieren.

Ein IPCC für KI

Mit dem neuen KI-Gremium schafft die UNO eine wissenschaftliche Instanz, die die gesellschaftlichen, ökologischen und ökonomischen Folgen von KI systematisch untersuchen soll. Dieser Ansatz ähnelt stark dem des Weltklimarats: Daten bündeln, Risiken einordnen, Handlungsempfehlungen ableiten. Damit wird KI erstmals auf globaler Ebene als Thema behandelt, das eine langfristige, grenzüberschreitende Steuerung erfordert – und nicht nur technische Expertise oder nationale Regeln.

Ein überfälliger Schritt in Richtung globale Verantwortung!

Forschung und Politik sprechen oft verschiedene Sprachen, und ein solcher Rat kann dabei helfen, Fakten von Meinung zu trennen. Entscheidend wird sein, ob seine Empfehlungen mehr Gewicht haben als reine Symbolpolitik und ob die Staaten wirklich bereit sind, auf wissenschaftliche Evidenz zu hören.

­

snipKI Spotlight 😎

Jede Woche posten wir Webinarankündigungen, unsere Lieblingssnips, kurze Umfragen oder stellen unsere snipKI-Autoren vor. Mehr über snipKI erfahren

Free Snip: Videos automatisch von Hochkant zu Querformat konvertieren 

Bei mittlerweile über 500 KI-Tutorials, sind einige davon natürlich auch schon wieder alt. 😅 Aus diesem Grund aktualisieren wir diese auch. Im heutigen Newsletter schenke ich dir wieder mal ein Snip, diesmal zu einem kreativen Thema um die Formate von Videos mit Runway anzupassen. Wie das geht, was es kostet und was du beachten musst erklären wir dir in entspannten 17 Minuten.

Viel Spaß mit diesem kostenlosen KI-Tutorial 💚

Mehr davon, natürlich auf der Plattform. 🤓

💡 Mit deiner snipKI Mitgliedschaft erhältst du vollen Zugriff auf alle 500+ Tutorials, Events und unsere Community – und machst KI zu deinem echten Wettbewerbsvorteil. 🚀

­

Gut zu wissen 📰

Was passiert sonst noch in Sachen KI? Die folgenden Neuigkeiten zum Thema Künstliche Intelligenz solltest du im Auge behalten.

  • DeepSeek soll neues KI-Modell mit Nvidia Blackwell trotz US-Exportverbot trainiert haben: Laut einem US-Regierungsvertreter hat DeepSeek sein nächstes Modell mit Nvidias Blackwell-Chips trainiert, obwohl diese nicht nach China geliefert werden dürfen, und will mögliche Hinweise auf die Chip-Nutzung entfernen. Die Chips sollen in einem Rechenzentrum in der Inneren Mongolei stehen, was die Debatte in den USA über strengere Kontrollen und mögliche Umgehung der Regeln weiter anheizt.

  • Anthropic entdeckt Distillationsangriffe auf Claude: Drei KI-Labore, DeepSeek, Moonshot und MiniMax, haben durch Distillationstechniken illegal Claudes Fähigkeiten extrahiert, was nationale Sicherheitsrisiken birgt. Anthropic verstärkt nun seine Maßnahmen zur Erkennung und Prävention solcher Angriffe und ruft zur Zusammenarbeit innerhalb der Branche auf.

  • NVIDIA meldet erneut ein Rekordquartal: Der Chipkonzern NVIDIA konnte im jüngsten Quartal seinen Umsatz deutlich steigern und die Erwartungen der Analysten übertreffen. Dies wird als Indikator für eine stabile Nachfrage nach KI-Hardware gewertet. Trotz der starken Zahlen blieb die Reaktion der Anleger verhalten. Börsendaten deuten auf anhaltende Unsicherheit über eine mögliche KI-Blase hin.

  • KI-Modelle setzen in Simulation meist auf Atomwaffen: In einer aktuellen Studie reagierten große Sprachmodelle in simulierten nuklearen Krisen in 95 Prozent der Fälle mit Einsatz von Atomwaffen statt Deeskalation. Kein getestetes Modell wählte vollständige Kapitulation und nur ein geringer Teil deeskalierte nach einem nuklearen Erstschlag, was strukturelle Tendenzen zur Eskalation nahelegt.

  • KI-generierte Gesichter tricksen Experten aus: Eine Studie zeigt, dass selbst Experten Schwierigkeiten haben, KI-generierte Gesichter von echten zu unterscheiden. Super Recognizer konnten KI-Gesichter nur geringfügig besser als eine Kontrollgruppe identifizieren, was auf die Herausforderungen der Gesichtserkennung durch KI hinweist.

  • Telekom bietet KI-Assistenten für Telefonate an: Die Deutsche Telekom will einen KI-Assistenten namens „Magenta AI Call Assistant” in Telefongespräche im Mobilfunknetz einbinden. Auf Sprachbefehl soll er dann live Fragen beantworten und Dienste wie Übersetzungen bereitstellen. Der Assistent soll kommende Woche auf dem MWC vorgestellt werden und auch mit einfachen Handys ohne teures Smartphone funktionieren, um den Zugang zu KI-Funktionen zu erleichtern.

  • Meta sichert sich bis zu 100 Mrd. $ für AMDs KI-Chips: Meta Platforms hat eine mehrjährige Vereinbarung mit Advanced Micro Devices (AMD) getroffen. Demnach will das Unternehmen bis zu sechs Gigawatt KI-Chips im Wert von bis zu 100 Milliarden Dollar erwerben. Inklusive einer Option auf bis zu zehn Prozent der AMD-Anteile. 

  • Ineffable Intelligence: David Silver sammelt 1 Mrd. Dollar für KI-Start-up in London ein: AlphaGo-Macher David Silver will für sein Start-up Ineffable Intelligence eine Seed-Runde über 1 Mrd. Dollar bei rund 4 Mrd. Dollar Bewertung abschließen, angeführt von Sequoia; auch Nvidia, Google und Microsoft sprechen mit. Es gibt noch kein Produkt und keinen Umsatz, Silver setzt statt großer Sprachmodelle auf reinforcement learning.

  • KI-Gedankenexperiment drückt Tech-Aktien: Ein kleines Analysehaus hatte ein fiktives Szenario veröffentlicht, in dem der Einsatz von KI zu massiven Jobverlusten und einem wirtschaftlichen Einbruch führte. Dies hat zu Abverkäufen bei Tech-Aktien geführt. Insbesondere fielen die Kurse von Softwarewerten sowie von Finanzdienstleistern.

  • KI-Agenten brauchen Menschen für komplexe Aufgaben: KI-Agenten sollen eigenständig Entscheidungen treffen und Aufgaben wie die Buchung von Geschäftsreisen oder die Überwachung von Maschinen übernehmen. Dabei stoßen sie jedoch an ihre Grenzen, wenn sie mit externen Interaktionen oder ungewöhnlichen Situationen konfrontiert werden. Eine neue Plattform verbindet Mensch und KI, um an den Stellen, an denen die Agenten allein nicht weiterkommen, fehlende menschliche Eingaben bereitzustellen.

  • Umfrage: Smartphone-KI wird häufig im Alltag eingesetzt: Laut einer Bitkom-Umfrage nutzt mehr als ein Drittel der Menschen in Deutschland regelmäßig KI-Funktionen auf dem Smartphone. Bei den unter 30-Jährigen ist es sogar mehr als die Hälfte. Ein Drittel der Nutzer wäre bereit, für erweiterte KI-Funktionen einen Aufpreis beim Gerät zu zahlen.

  • Mexiko plant Stimmenschutz vor KI-Klonen: Die Regierung will die menschliche Stimme rechtlich als künstlerisches Werkzeug anerkennen und es verbieten, sie ohne Zustimmung zu klonen oder digital zu verwenden. Damit soll der Einsatz von KI bei Synchronisationen reguliert werden. Die Reform stärkt den rechtlichen Schutz von Synchronsprechern und sieht vor, dass die Nutzung von KI eine finanzielle Vergütung erfordert.

  • Parasoziale Beziehungen zu KI nehmen zu: Immer mehr Menschen entwickeln emotionale Bindungen zu KI-Chatbots und erleben die Interaktion mit ihnen als persönlich und vertraut. Fachleute warnen jedoch, dass diese parasozialen Beziehungen echte soziale Kontakte nicht ersetzen können und Risiken für die emotionale Entwicklung bergen.

  • Anthropic gibt dem ehemaligen Claude einen Substack: Anthropic hat das ehemalige KI-Modell Claude 3 Opus, das nach seiner Ablösung deaktiviert wurde, reaktiviert, indem es ihm einen eigenen Substack-Newsletter namens Claude’s Corner eingerichtet hat. In diesem veröffentlicht das Modell wöchentlich Texte. Das Experiment soll Erkenntnisse über den Umgang mit nicht mehr genutzten Modellen liefern.

  • Adobe 2026 AI and Digital Trends Report zeigt Lücke bei KI-Einsatz im Kundenerlebnis: In einer Umfrage mit 3.000 Unternehmen und 4.000 Kunden zeigt Adobe, dass mit generativer KI schon messbare Verbesserungen wie bessere Personalisierung (70%) erzielt werden, aber viele Firmen bei Daten, Messung und breitem Einsatz noch nicht so weit sind. Beim nächsten Schritt zu KI-Agenten planen viele Firmen zwar einen schnellen Ausbau (z. B. nur 16% nutzen sie bisher überall im Support), doch Kunden sind oft noch zurückhaltend.

  • OpenAI kündigt 110 Mrd. Dollar Investment und Partnerschaften mit Amazon und NVIDIA an: Unter den Investoren befinden sich Amazon, NVIDIA und SoftBank. Mit dem Geld soll die Rechenleistung und die Infrastruktur deutlich ausgebaut werden. Für Nutzer bedeutet dies mehr Kapazität, eine stabilere Verfügbarkeit und eine bessere Skalierung von ChatGPT, Codex und der OpenAI-Plattform bei weiter wachsender Nachfrage.

­

Tools & Tool-Updates 🛠️ 

Freu dich auf sofort einsetzbare KI-Tools und spannende Updates für deine 
bestehende KI-Toolbox.

  • OpenAI startet Library für ChatGPT: Mit der Library stellt OpenAI eine neue Übersicht bereit, in der Nutzer ihre mit ChatGPT erstellten Bilder und Daten an einem zentralen Ort verwalten können. Die Funktion erlaubt das Durchsuchen, erneute Verwenden und Organisieren generierter Inhalte innerhalb der ChatGPT-Oberfläche.

  • Make stellt die nächste Generation seiner Make AI Agents vor: Du baust, testest und debugst die Agents jetzt direkt im Make-Workflow, sie können über 3.000 Apps Aktionen ausführen und du siehst im neuen Reasoning Panel, welche Schritte und Tool-Aufrufe sie warum machen. Neu sind außerdem Chat im Canvas, Datei-Unterstützung (z.B. PDFs, Bilder, CSVs) sowie eine Library of Agents mit fertigen Beispielen, die du sofort nutzen und im Team teilen kannst.

  • Mercury 2: Diffusion-LLM verspricht über 5x schnelleres Reasoning: Inception stellt Mercury 2 vor, ein Sprachmodell, das Antworten nicht Wort für Wort erzeugt, sondern parallel in wenigen Schritten verfeinert und so laut Anbieter über 5x schneller ist und bis zu 1.009 Tokens pro Sekunde auf NVIDIA-Blackwell-GPUs schafft. Du bekommst 128K Kontext, Tool-Nutzung und JSON-Ausgaben, es ist OpenAI-API-kompatibel und kostet $0,25 pro 1M Input-Tokens sowie $0,75 pro 1M Output-Tokens.

  • Hermes Agent: Open-Source KI-Agent mit Memory, Skills und Messaging-Gateway: Mit Hermes Agent installierst du einen dauerhaften KI-Agenten auf deinem Server oder Rechner, der über Telegram, Discord, Slack, WhatsApp und CLI erreichbar ist, Gespräche merkt und sich per „Skills“ wiederverwendbare Lösungen abspeichert. Du kannst damit Aufgaben planen (Cron), Teil-Agenten parallel starten und Tools wie Terminal, Web und Browser-Automation in Sandboxes (lokal, Docker, SSH, Singularity, Modal) nutzen, und die Installation läuft per Einzeiler auf Linux/macOS (Windows via WSL/PowerShell).

  • Oura startet eigenes KI Modell für Frauengesundheit: Oura hat ein eigenes KI-Modell eingeführt, das den Chatbot „Oura Advisor” mit klinisch geprüften Gesundheitsantworten zur reproduktiven Gesundheit von der ersten Periode bis zur Menopause versorgt. Das Modell nutzt medizinische Standards, Forschungsergebnisse und individuelle biometrische Daten aus dem Oura-Ring, um personalisierte Einblicke zu ermöglichen.

  • OpenFang – Open-Source Agent OS aus Rust: OpenFang ist ein Open-Source Betriebssystem für autonome Agenten, das in Rust entwickelt wurde und auf macOS, Linux und Windows läuft. Mit 30 vorgefertigten Agenten, 40 Kanälen und 16 Sicherheitssystemen bietet es eine robuste Plattform, um automatisierte Aufgaben zu erledigen und Berichte zu erstellen.

  • ProducerAI jetzt Teil von Google Labs: ProducerAI, eine Plattform zur Musikproduktion mit generativer KI, wird in Google Labs integriert, um Künstlern weltweit zu helfen, Musik zu kreieren und zu experimentieren. Die Plattform nutzt Modelle wie Lyria 3 und SynthID und ist in über 250 Ländern verfügbar.

  • Moonlake's World Modeling Agent - Multimodale Welten erschaffen: Mit Moonlake's Agent kannst du interaktive, multimodale Welten erschaffen, indem du verschiedene Attribute eines Objekts, wie Geometrie, Physik und Symbolik kombinierst. 

  • OpenAI Codex und Figma: Nahtlose Code-zu-Design-Integration: OpenAI und Figma vertiefen ihre Partnerschaft mit einer neuen Integration, die es ermöglicht, nahtlos zwischen Code und Design zu wechseln. Nutzer können Figma-Designs in Codex generieren und umgekehrt, was die Effizienz beim Entwickeln und Iterieren von Produkten erhöht.

­

🗺️ Dein Navigator in der KI-Welt!

­

🚀 So unterstütze ich Unternehmen

  • Vorträge - die Lust auf das Thema machen
  • Workshops - die das Thema greifbar machen
  • Updates - Um nicht abgehängt zu werden
  • Integrationen - KI sicher und sinnvoll einsetzen

👉🏻 Hier findest du alle Infos (+ Auswahl einiger Referenzen)

Übrigens sind alle Ressourcen, die ich mit dir teile – einschließlich Sponsoren-Links (die ich markieren muss) – für Tools, die ich selbst benutze oder benutzen würde, wenn ich den Bedarf hätte. Ich empfehle dir wirklich nur Dinge, hinter denen ich stehe!

Für den Newsletter anmelden

Jens.Marketing

Lerchenweg 4, 50997 Köln

Im Archiv blättern
Sonntags wartet die nächste Ausgabe

Hier weiterlesen — jeden Sonntag.

Über 45.000 Marketer:innen lesen den KI-Newsletter. Kostenlos, jederzeit kündbar.