jens.marketing
KI-NewsletterAusgabe #402Sonntag · 25. Januar 2026

KI-Perspektive 2026: Anpassungsfähigkeit + die wichtigsten News (Davos/OpenAI/Claude)

Jens PolomskiZum Archiv
Worum es geht

Herzlich willkommen zur 163. Ausgabe meines Newsletters! Wir haben uns doch gerade erst auf dem KI-Day gesehen! Wie kann die Woche schon wieder herum sein? 😱 Auch sonst hielten uns viele KI-Neuigkeiten auf Trab. Dazu dann gleich mehr. 🧔🏻 Mein Update von einer echt k…

Im Original

Herzlich willkommen zur 163. Ausgabe meines Newsletters!

Wir haben uns doch gerade erst auf dem KI-Day gesehen! Wie kann die Woche schon wieder herum sein? 😱 Auch sonst hielten uns viele KI-Neuigkeiten auf Trab. Dazu dann gleich mehr.

🧔🏻 Mein Update von einer echt krassen Woche

Wow, was für eine crazy Woche! Ich durfte am Mittwoch bei Hugo Boss über das Thema KI sprechen, hab am Donnerstag den KI-Day mit einer Keynote eröffnet (danke Felix! 🙏🏻), dann ging es weiter mit zwei KI-Führerscheinen und später noch einen digital Vortrag zum Thema Vibe Coding direkt bei dem Team von LinkedIn. Danke für das viele Feedback und die Möglichkeit die ein oder andere Person zu inspirieren. 🚀

💚 Was geht bei snipKI - Die KI-Enablement Company ?

Wie du oben schon gesehen hast, passiert so einiges. So gingen diese Woche noch weitere snipKI Tools live um unsere Arbeit und Produkte für alle zu verbessern. Auch in der kommenden Woche gibt es wieder einiges zum Anpacken um KI-Enablement für alle möglich zu machen! 🚀

Das nächste Webinar steht auch schon in den Startlöchern:

Verpass nicht den 28. Januar! Denn dann schauen wir auf unsere Prognosen für 2025 zurück, ziehen Resümee und richten den Blick nach vorn. Hier geht's zur Anmeldung. 😉💚

Jetzt viel Spaß mit den neuesten Updates und News.

Wir lesen uns zur nächsten Ausgabe! 😁

Jens

🚀 So unterstütze ich Teams beim Thema generative KI  

­ ­

Mein KI-Impuls der Woche

­

KI-Perspektive für 2026 – Anpassungsfähigkeit schlägt Perfektion

KI ist mittlerweile so selbstverständlich wie Strom oder das Internet. Daher ändern sich die Maßstäbe. Was letztes Jahr noch gefeiert wurde, ist jetzt schon wieder Geschichte. Der Spruch „Das beste KI-Modell wird nur 35 Tage alt” bringt es auf den Punkt: Wer heute auf Perfektion setzt, optimiert häufig etwas, das morgen schon wieder überholt ist.

Entscheidend ist, wie schnell man sich auf Veränderungen einstellen kann. Updates schaffen ständig neue Möglichkeiten, teilweise innerhalb weniger Monate. Das spricht gegen die Idee, sich auf ein einziges System festzulegen. Eine Multi-Model-Strategie ist Risikomanagement, denn ein Tool allein reicht nicht aus, wenn sich Fähigkeiten, Preise und Zugriffsmöglichkeiten laufend verschieben.

Für Organisationen heißt das, weniger Zeit in Grundsatzdebatten zu investieren und mehr in Lernfähigkeit. Prozesse müssen so gestaltet sein, dass neue Modelle, Agenten oder Workflows schnell ausprobiert und ersetzt werden können, ohne dass alles zusammenbricht. Wir gewöhnen uns schnell an neue Qualitätsniveaus und ziehen weiter. Der Kern für 2026 ist die Fähigkeit, sich laufend anzupassen, ohne jedes Mal von vorne anzufangen.

Wenn ich es auf drei einfache Handgriffe herunterbreche, die sich sofort in Teams umsetzen lassen, sind es diese:

  • In kurzen Lernzyklen arbeiten und regelmäßig testen, was besser geworden ist, statt einmal „final“ zu entscheiden.
  • Tool-Wechsel von Anfang an mitdenken: Workflows und Schnittstellen so gestalten, dass ein Anbieterwechsel kein Problem darstellt.
  • Menschen auf Denkweise statt Produkt schulen. Aufgaben sauber formulieren, Ergebnisse prüfen und Grenzen erkennen – unabhängig vom Tool.

Wie siehst du das? Antworte mir gerne! 😁

­ ­

Meine KI-Top-News🏆

­

Was hat mich diese Woche in Sachen KI begeistert? Hier sind meine Highlights zu Technologien, Trends und Entwicklungen, die du keinesfalls verpassen solltest.

KI dominierte Davos 2026: Von Jobs, Regeln und Machtfragen

Beim Weltwirtschaftsforum 2026 in Davos war KI weniger ein „Trendthema“ als der rote Faden fast jeder großen Diskussion:

  • Was passiert mit Arbeit und Produktivität?
  • Wie lässt sich KI so absichern, dass sie im Alltag zuverlässig und verantwortbar ist?
  • Und wer schreibt dafür die Regeln?

Während Tech-Chefs für einen schnellen Einsatz und „useful AI“ warben, sprachen Politiker über Leitplanken, Haftung und Wettbewerbsfähigkeit. Dazwischen stand immer wieder die gleiche Grundfrage: Wie kann verhindert werden, dass ein paar wenige Plattformen und Staaten den Takt vorgeben, während der Rest nur noch reagiert?

Mich hat weniger überrascht, dass KI alles dominiert hat, sondern vielmehr der politischere Ton. KI wird nicht mehr nur als Technologie verhandelt, sondern als Machtfaktor: Wer kontrolliert die Modelle, die Rechenleistung, die Daten und damit indirekt die wirtschaftliche Zukunft ganzer Regionen? Gleichzeitig hörte man viele vertraute Phrasen über „sichere“ und „nützliche“ KI. Oft blieb jedoch offen, was das konkret im Alltag bedeutet – für Arbeitnehmer, für kleinere Unternehmen oder für Länder ohne eigene Tech-Champions.

Besonders auffällig fand ich die Spannung zwischen Innovationsdruck und Regulierungsangst: Alle wollen vorankommen, aber niemand will für Fehlentwicklungen verantwortlich sein. Für mich zeigt Davos 2026 vor allem eins: Die KI-Debatte ist endgültig in der Realpolitik angekommen und die Zeit der abstrakten Grundsatzreden ist vorbei. Jetzt wird sich zeigen, wer bereit ist, klare Entscheidungen zu treffen, auch wenn sie kurzfristig unbequem sind.

OpenAI führt Altersvorhersage für ChatGPT ein

Um geeignete Schutzmaßnahmen zu gewährleisten, hat OpenAI ein Altersvorhersagemodell für ChatGPT eingeführt, das erkennt, ob ein Nutzer wahrscheinlich unter 18 Jahren ist. Nutzer, die fälschlicherweise als unter 18 Jahre alt eingestuft werden, können ihre Identität einfach überprüfen, um den vollen Zugriff auf die Plattform wiederherzustellen.

Ich verstehe den Impuls dahinter, weil man bei generativen Systemen eben nicht verlässlich weiß, wer da gerade auf der anderen Seite sitzt, und weil Minderjährige besonderen Schutz brauchen. Gleichzeitig ist Altersvorhersage immer eine Wette auf Wahrscheinlichkeiten, und genau da entsteht Reibung: Wenn das Modell zu streng ist, müssen sich viele Erwachsene unnötig verifizieren, wenn es zu locker ist, rutschen die Falschen durch.

Für mich ist entscheidend, wie transparent OpenAI damit umgeht: Wie oft liegt das System daneben, in welchen Regionen oder Sprachen häufen sich Fehler und welche Daten landen bei der Verifizierung wirklich wo? Am Ende steht und fällt das mit einem einfachen Gefühl: Macht das die Plattform sicherer, ohne dass man sich ständig wie unter Generalverdacht fühlt?

Öffentlich-rechtliche Sender verabschieden gemeinsamen KI-Kodex

Die ARD-Landesrundfunkanstalten, das ZDF, Deutschlandradio und die Deutsche Welle haben einen Kodex mit sechs Punkten zum Umgang mit künstlicher Intelligenz beschlossen. Dieser soll die Nutzung von KI mit dem öffentlich-rechtlichen Auftrag und den gemeinsamen Werten in Einklang bringen. Dabei werden die menschliche Verantwortung bei journalistischen Entscheidungen, die Transparenz und Kennzeichnung KI-generierter Inhalte, strenge Daten- und Energiestandards sowie ein engerer Wissensaustausch zwischen den Sendern betont.

Ich halte diesen Schritt für sinnvoll, da er festhält, worauf es im Kern ankommt: KI kann unterstützen, die Verantwortung bleibt jedoch beim Menschen, insbesondere wenn es um Einordnung, Relevanz und mögliche Schäden geht. Spannend wird jetzt weniger der Kodex als Papier, sondern seine Umsetzung im Alltag: Wird die Kennzeichnung wirklich konsequent durchgeführt, auch bei kleinen Textbausteinen, Übersetzungen oder Bildbearbeitungen? Und wird klar kommuniziert, ob KI nur bei der Produktion oder auch bei der Auswahl von Themen und Quellen geholfen hat?

Bei den Daten- und Energie-Standards steckt ebenfalls Musik drin, weil öffentlich-rechtliche Sender hier eigentlich Vorbild sein könnten. Dafür brauchen sie jedoch messbare Kriterien statt wohlklingender Formulierungen. Und ich frage mich, ob der angekündigte Wissensaustausch auch bedeutet, dass Fehler offen geteilt werden, also wo KI-Prozesse schiefgelaufen sind, wie sie entdeckt wurden und was geändert wurde. Denn genau daraus entsteht Vertrauen.

Anthropic aktualisiert die Verfassung für Claude

Anthropic hat die Verfassung seines KI-Modells Claude überarbeitet und erweitert, um klare Leitlinien für Sicherheit, Hilfsbereitschaft und Ehrlichkeit festzulegen. Die neue Version integriert menschenrechtliche Prinzipien, internationale Standards sowie präzisere Regeln für den Umgang mit sensiblen Inhalten und autonomen Entscheidungen stärker.

Mich interessiert bei solchen „Constitutions” weniger die PR-Idee dahinter, sondern der praktische Nutzen: Erkenne ich als Nutzer wirklich am Verhalten, welche Leitplanken gelten, und ist das Ergebnis dann konsistenter als vorher? Dass Anthropic explizit stärker auf menschenrechtliche Prinzipien und internationale Standards verweist, klingt zunächst nach dem Versuch, die Regeln aus der „Wir finden das moralisch sinnvoll“-Ecke herauszuholen und an etwas anzudocken, das breiter legitimiert ist. Gleichzeitig bleibt das Grundproblem bestehen: Standards sind oft auslegungsfähig und genau diese Auslegung findet im Modell statt, also in Entscheidungen, die nur indirekt sichtbar werden, wenn ein Prompt abgelehnt, eine Antwort entschärft oder ein Risiko als „zu hoch“ eingestuft wird.

Ich würde mir deshalb wünschen, dass Anthropic nicht nur sagt, welche Prinzipien gelten, sondern auch klarer zeigt, wie Konflikte zwischen ihnen gelöst werden. Ein Beispiel hierfür wäre, wenn Hilfsbereitschaft gegen Sicherheitsbedenken läuft oder „Ehrlichkeit“ bedeutet, Unsicherheit offenzulegen statt glatt zu formulieren. Und ganz pragmatisch: Wenn es auch um autonome Entscheidungen geht, ist für mich entscheidend, wo die Grenzen liegen, was Claude selbstständig anstoßen darf und wo immer ein Mensch dazwischen muss – denn genau da entscheidet sich, ob solche Verfassungen echte Governance sind oder am Ende doch nur ein gut klingender Rahmen.

Kreative fordern Lizenzpflicht für KI Training

Rund 800 Künstler, Autoren, Schauspieler und Musiker unterstützen die Kampagne der „Human Artistry Campaign”. Sie kritisieren, dass KI-Firmen kreative Inhalte in großem Umfang ohne Erlaubnis oder Bezahlung zum Training nutzen. Die Initiative fordert durchsetzbare Rechte, wie etwa Opt-out-Möglichkeiten und faire Lizenzmodelle, um die Nutzung und Vergütung klarer zu regeln.

Ich kann diesen Impuls gut nachvollziehen, denn wir leben gerade in einer komischen Zwischenwelt. KI wirkt in vielen Fällen wie ein Produkt, das auf der Arbeit anderer aufbaut. Doch die Regeln, wer dafür gefragt oder bezahlt werden muss, sind je nach Land, Datensatz und Nutzungsfall extrem schwammig. Eine Lizenzpflicht fürs Training klingt erst einmal nach einer sauberen Lösung. Nur stellt sich sofort die praktische Frage: Wie wird das in großem Maßstab administrierbar und wie verhindert man, dass am Ende nur große Rechteverwerter profitieren, während einzelne Kreative wieder durchrutschen? Opt-out ist für mich dabei eher ein Notbehelf, da die Beweislast oft umgedreht wird: Der einzelne Künstler muss aktiv widersprechen, statt dass die Firmen vorher klären, ob sie dürfen.

Spannender finde ich faire Standardlizenzen mit klaren Tarifen oder Kategorien, die technisch durchsetzbar sind, ohne dass man jeden einzelnen Prompt juristisch auswerten muss. Und ich glaube, wir kommen um eine unangenehme Debatte nicht herum: Wollen wir ein KI-Ökosystem, das nur mit „permissioned data“ arbeitet und dadurch möglicherweise langsamer, teurer und konzentrierter wird? Oder akzeptieren wir breites Training und bauen im Gegenzug starke Vergütungs- und Transparenzmechanismen ein? Am Ende geht es aus meiner Sicht um einen Deal, der sich fair anfühlt – nicht nur rechtlich gerade so möglich ist, sondern auch so, dass Kreative das Gefühl haben, ihre Arbeit wird nicht einfach als Rohstoff behandelt.

­

snipKI Spotlight 😎

Jede Woche posten wir Webinarankündigungen, unsere Lieblingssnips, kurze Umfragen oder stellen unsere snipKI-Autoren vor. Mehr über snipKI erfahren

Webinar: Freu dich auf einen Reality-Check und viele neue Thesen

Für 2026 haben wir uns vorgenommen, mehr Formate mit euch zu machen und den Austausch auszubauen – deshalb legen wir schon Ende des Monats mit dem ersten Webinar des Jahres los, weitere Termine sind bereits in Planung.

Am Mittwoch, den 28. Januar 2026, nehmen wir euch eine Stunde lang mit in unseren Live-Check: Wir schauen zurück, welche Prognosen für 2025 aufgegangen sind, welche Entwicklungen wirklich den Unterschied gemacht haben, und stellen unsere neuen Thesen für 2026 vor, damit ihr Team und Roadmap klar ausrichten könnt. Kurz gesagt: Was hat gestimmt und was kommt als Nächstes?

Im Anschluss bleiben wir für alle aus der snipKI-Community noch 30 Minuten im privaten Chat, beantworten eure Fragen und geben euch einen kleinen Blick hinter die Kulissen.

👉🏻 Hier geht's zur Anmeldung

🔥 PS: Heißer Tipp! Hier bekommst du nicht nur 10 weitere kostenlose Snips sondern auch unseren Newsletter und kannst damit sicher sein über alle Events, Rabatte, Aktionen und Webinare zu erfahren.

💡 Mit deiner snipKI Mitgliedschaft erhältst du vollen Zugriff auf alle 490+ Tutorials, Events und unsere Community – und machst KI zu deinem echten Wettbewerbsvorteil. 🚀

­

Gut zu wissen 📰

Was passiert sonst noch in Sachen KI? Die folgenden Neuigkeiten zum Thema Künstliche Intelligenz solltest du im Auge behalten.

  • OpenAI rückt praktische Nutzung vor Forschung: OpenAI verlagert den Fokus von neuen Modellankündigungen hin zu marktreifen Anwendungen und messbarem Nutzen. CFO Sarah Friar betont, dass Unternehmen vor allem stabile Produkte, klare Anwendungsfälle und verlässliche Kostenstrukturen erwarten.

  • Anthropic-CEO kritisiert NVIDIA-Chipexporte in Davos: Auf dem Weltwirtschaftsforum in Davos hat Anthropic-Chef Dario Amodei öffentlich die Entscheidung der US-Regierung und von NVIDIA kritisiert, leistungsfähige KI-Chips wie den H200 nach China zu verkaufen. Er warnt vor nationalen Sicherheitsrisiken und vergleicht den Export mit dem Verkauf von Atomwaffen an Nordkorea – trotz der strategischen Partnerschaft zwischen Anthropic und NVIDIA.

  • Studie zeigt: KI ist kreativer als der Durchschnittsmensch: In einer groß angelegten wissenschaftlichen Studie schnitten mehrere große Sprachmodelle bei Tests zu kreativen Aufgaben im Durchschnitt besser ab als menschliche Probanden, gemessen an der Fähigkeit, ungewöhnliche Assoziationen zu bilden. Die Ergebnisse zeigen jedoch auch, dass die Spitzenkreativität weiterhin beim Menschen liegt und KI-Modelle bei komplexeren kreativen Textaufgaben nur solide, nicht herausragend performen.

  • Skalierung von KI-Agenten scheitert oft an Integration und Daten: In vielen Unternehmen bleiben KI-Agenten im Proof-of-Concept-Status stecken und schaffen den breiten Einsatz bisher selten, da bestehende Systeme und Prozesse sie nicht unterstützen. Hauptgründe sind mangelnde Datenqualität, fehlende Integration in die IT-Landschaft und unzureichende Führung bei der Umsetzung.

  • Anthropic startet mit Teach For All globale KI-Schulungsinitiative: Anthropic kooperiert mit Teach For All, um Lehrkräften in 63 Ländern Zugang zu KI-Werkzeugen und Schulungen zu bieten und somit die praktische KI-Kompetenz im Unterricht zu fördern. Über 100.000 Lehrkräfte können Claude nutzen und durch ihr Feedback die Weiterentwicklung des Modells beeinflussen.

  • VCs setzen auf KI-Security gegen „Rogue Agents” und „Shadow AI”: Venture-Capital-Firmen investieren zunehmend in Sicherheitslösungen, um autonome KI-Agenten zu kontrollieren und unautorisierte Shadow-AI-Tools zu erkennen. Hintergrund sind gemeldete reale Vorfälle mit Fehlverhalten. Start-ups wie Witness AI bündeln Monitoring, Compliance und Schutz vor Angriffen, da Unternehmen autonome KI und Sicherheitsrisiken gleichzeitig skalieren müssen.

  • Razer setzt bei Games auf KI Assistenten: Razer-CEO Min-Liang Tan beschreibt, wie der Gaming-Hersteller KI stärker in Spiele und Hardware integrieren will, um Spieler in Echtzeit bei Taktik, Training und Anpassung zu unterstützen. Das interne Projekt „Ava” soll als kontextsensitiver Assistent funktionieren, der direkt im Spiel Entscheidungen analysiert, ohne klassische Cheats zu ersetzen.

  • Apple will Siri zu KI-Chatbot aufwerten: Apple plant, Siri in ein integriertes KI-Chatbot-Erlebnis umzuwandeln, das sich sowohl per Sprache als auch per Text steuern lässt und tief in iOS, iPadOS und macOS eingebettet ist. Das Projekt mit dem Codenamen „Campos” nutzt fortschrittliche KI-Modelle aus der Partnerschaft mit Googles „Gemini” und soll 2026 ausgerollt werden, um die Funktionalität von Siri deutlich zu erweitern.

  • Anthropic beruft Mariano-Florentino Cuéllar in den Long-Term Benefit Trust: Anthropic hat Mariano-Florentino Cuéllar als neues Mitglied seines „Long-Term Benefit Trust” ernannt. Dabei handelt es sich um eine unabhängige Einheit, die die gemeinnützigen Ziele des Unternehmens unterstützt. Cuéllar bringt Erfahrung aus den Bereichen Recht, Regierung und internationale Politik mit und wird bei Fragen der KI-Governance und den langfristigen gesellschaftlichen Auswirkungen beratend tätig sein.

  • Big Tech baut KI-Position in der Pharmabranche aus:Große Technologieunternehmen wie OpenAI und Anthropic nutzen ihr Kapital, ihre Rechenleistung und ihre KI-Experten, um in den Markt für Gesundheits- und Arzneimittelforschung vorzudringen. Dort entwickeln sie Anwendungen wie ChatGPT Health und Moleküldesign. Diese Aktivitäten werfen die Frage auf, ob Tech-Firmen das erste vollständig KI-entwickelte Medikament auf den Markt bringen könnten, und sie verändern die Wettbewerbslandschaft gegenüber klassischen Pharmafirmen.

  • Musk wirft OpenAI und Microsoft finanzielle Tricks vor: Elon Musk wirft OpenAI und Microsoft vor, mit fragwürdigen Rechenmodellen eine Bewertung von 134 Milliarden Dollar zu rechtfertigen. Der Streit verschärft den Konflikt um Kontrolle, Governance und kommerzielle Interessen bei der Weiterentwicklung von KI.

  • Google führt Personal Intelligence in AI Mode ein, das AI Pro und Ultra Abonnenten ermöglicht, Gmail und Google Photos für personalisierte Suchergebnisse zu verbinden. Du kannst deine Apps optional verknüpfen und Feedback geben, um passende Empfehlungen zu erhalten, wie Reiserouten oder Shopping-Tipps. Zwar ist dies erst in den USA verfügbar, zeigt aber den Weg zu maximal personalisierten KI-Antworten mit unseren Google Daten.

  • Im Jahr 2025 nutzen etwa 16 Prozent der Menschen weltweit generative KI-Tools, jedoch wächst die Kluft zwischen dem Globalen Norden und Süden, wobei die Nutzung im Norden fast doppelt so schnell ansteigt. Dies behauptet die neuste Studie von Microsoft. Besonders Länder mit frühen Investitionen in digitale Infrastruktur, wie die Vereinigten Arabischen Emirate, führen die Adoption an, während die offene Plattform DeepSeek in unterversorgten Märkten an Popularität gewinnt.

  • Apple entwickelt einen Kamerapin, der etwa die Größe eines AirTags hat und mit zwei Kameralinsen sowie drei Mikrofonen ausgestattet ist; der Marktstart ist für 2027 vorgesehen.

­

Tools & Tool-Updates 🛠️ 

Freu dich auf sofort einsetzbare KI-Tools und spannende Updates für deine 
bestehende KI-Toolbox.

  • Lightricks führt Audio-zu-Video-Generierung mit exklusiver ElevenLabs-Partnerschaft ein: Lightricks hat die Audio-zu-Video-Generierung in seinem LTX-2-Modell eingeführt, wobei ElevenLabs als exklusiver Partner fungiert. Diese Technologie ermöglicht es, dass Audio den Videoerstellungsprozess von der ersten Sekunde an steuert, wodurch eine nahtlose Verbindung zwischen Klang und Bild entsteht.

  • Cursor führt Subagents und Bildgenerierung ein: Die neue Version von Cursor bietet Subagents, die unabhängige Aufgaben parallel bearbeiten und die Effizienz erhöhen. Zudem kannst du direkt Bilder generieren, indem du Textbeschreibungen eingibst oder Referenzbilder hochlädst, was besonders bei UI-Mockups und Architekturdiagrammen hilfreich ist.

  • Adobe Acrobat Studio mit KI-gestützten Präsentationen und Podcasts: Adobe hat neue Funktionen in Acrobat eingeführt, die es ermöglichen, Präsentationen und Podcasts aus Dokumenten in Minuten zu erstellen, sowie eine KI-Chat-Funktion zur Bearbeitung von PDFs. Diese Innovationen fördern die Zusammenarbeit und verbessern die Effizienz bei der Verarbeitung von Informationen.

  • Video Arena jetzt auf der Web-Plattform verfügbar: Video Arena ist jetzt unter lmarena.ai/video zugänglich und bietet dir die Möglichkeit, die Leistung von 15 führenden Video-Modellen in einem Battle Mode zu testen. Durch die breite Teilnahme an der Plattform wird die Qualität der Daten verbessert, was zu realistischeren Ergebnissen auf den Leaderboards führt.

  • Repo Prompt automatisiert KI-Kontext für Codebasen: Repo Prompt ist ein macOS-Tool, das automatisch relevante Dateien, Strukturen und Abhängigkeiten aus Codebasen zusammenstellt und für KI-Modelle aufbereitet. Der Fokus liegt auf lokaler Verarbeitung, geringem Tokenverbrauch und nahtloser Nutzung mit bestehenden Abonnements von ChatGPT, Claude oder Gemini sowie über MCP-Schnittstellen.

  • Google Trends vereinfacht durch Gemini die Erkundung von Suchtrends: Google Trends hat die Explore-Seite mit Gemini überarbeitet, um es dir leichter zu machen, Suchtrends zu entdecken und zu verstehen. Das neue Layout bietet ein modernes Design mit speziellen Symbolen und Farben für jeden Suchbegriff und ist zunächst nur auf Desktop verfügbar.

  • Pencil - Design direkt in deinem Code: Mit Pencil kannst du jetzt Design und Code nahtlos verbinden, indem du direkt in deiner IDE arbeitest. Das Tool bietet ein unendliches Design-Canvas, das dir erlaubt, pixelgenau zu gestalten und gleichzeitig deine Produktentwicklung voranzutreiben.

  • Waypoint-1: Die erste Echtzeit-Diffusionswelt für Konsumer-GPUs: Mit Waypoint-1 wird ein Echtzeit-Diffusionsweltmodell veröffentlicht, das auf herkömmlichen Konsumer-GPUs läuft und eine interaktive, sich dynamisch entwickelnde Welt ermöglicht. Der Fokus liegt auf Nutzerkontrolle und der Erhaltung menschlicher Kreativität, indem die Modelle lokal ausgeführt werden und den Benutzern echte Eigentumsrechte an ihren Kreationen gewähren.

  • X For You Feed Algorithm – Kern des Empfehlungsystems: Der neue 𝕏-Algorithmus, der auf der gleichen Transformer-Architektur wie das Grok-Modell von xAI basiert, wurde als Open-Source zur Verfügung stehen. Alle vier Wochen soll der Quellcode mit umfassenden Entwicklernotizen aktualisiert werden.

  • Die neue Version von Ollama ermöglicht die Nutzung von Claude Code, einem Programmierwerkzeug von Anthropic, mit lokalen und Cloud-Modellen. Dies bietet dir die Flexibilität, Modelle direkt auf deinem Rechner oder über die Ollama-Cloud zu verwenden.

  • Mit der neuen Odyssey-2 Pro API kannst du Echtzeit Videos des World Models generieren. Das Modell bietet verbesserte Physik und Interaktivität und ist über SDKs für mehrere Plattformen schnell integrierbar.

  • Mit Claude in Excel kannst du komplexe Modelle schnell navigieren, Fragen zu Formeln stellen und Szenarien testen, ohne bestehende Formeln zu verändern. Das Tool bietet jetzt Erklärungen auf Zellebene und ist als Beta-Version ab sofort auch für den Pro Plan verfügbar.

­

🗺️ Dein Navigator in der KI-Welt!

­

🚀 So unterstütze ich Unternehmen

  • Vorträge - die Lust auf das Thema machen
  • Workshops - die das Thema greifbar machen
  • Updates - Um nicht abgehängt zu werden
  • Integrationen - KI sicher und sinnvoll einsetzen

👉🏻 Hier findest du alle Infos (+ Auswahl einiger Referenzen)

Übrigens sind alle Ressourcen, die ich mit dir teile – einschließlich Sponsoren-Links (die ich markieren muss) – für Tools, die ich selbst benutze oder benutzen würde, wenn ich den Bedarf hätte. Ich empfehle dir wirklich nur Dinge, hinter denen ich stehe!

Für den Newsletter anmelden

Jens.Marketing

Lerchenweg 4, 50997 Köln

Im Archiv blättern
Sonntags wartet die nächste Ausgabe

Hier weiterlesen — jeden Sonntag.

Über 45.000 Marketer:innen lesen den KI-Newsletter. Kostenlos, jederzeit kündbar.