<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="de">
    <id>https://muench.dev/feed/atom</id>
    <title type="text">muench.dev Articles</title>
    <subtitle type="text">muench.dev Feed</subtitle>
    <link xmlns="http://www.w3.org/2005/Atom" rel="self" type="application/atom+xml" href="https://muench.dev/feed/atom"/>
    <updated>2026-04-14T10:36:51+02:00</updated>
    <generator uri="https://github.com/mitydigital/feedamic" version="3.0.12">Feedamic: the Atom and RSS Feed generator for Statamic</generator>
    <entry>
        <title type="text">Adobe Commerce Optimizer: Das Unified Data Model unter der Haube</title>
        <link href="https://muench.dev/post/2026-04-adobe-commerce-optimizer-das-unified-data-model-unter-der-haube"/>
        <id>https://muench.dev/post/2026-04-adobe-commerce-optimizer-das-unified-data-model-unter-der-haube</id>
        <published>2026-04-13T07:00:00+00:00</published>
        <updated>2026-04-04T21:45:26+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Vor kurzem habe ich bei einem Adobe Event das Produkt &lt;strong&gt;Adobe Commerce Optimizer (ACO)&lt;/strong&gt; vorgestellt. Bei der Vorstellung wollte ich nicht mit den Standard-Demodaten arbeiten und wollte meine eigenen Demo-Daten nutzen. Dazu musste ich folgende Dinge klären: Welche API nimmt Daten entgegen? Wie ist das Datenmodell strukturiert? Und wie kommt das Ergebnis in mein Storefront (oder eigenes Frontend)?&lt;/p&gt;
&lt;h2&gt;Was ist das Unified Data Model?&lt;/h2&gt;
&lt;p&gt;Hinter ACO steckt eine SaaS-Schicht namens &lt;strong&gt;Merchandising Services&lt;/strong&gt;, die auf einem zentralisierten, quellenunabhängigen Datenspeicher basiert. Adobe spricht in diesem Zusammenhang von der &lt;strong&gt;CCDM&lt;/strong&gt;-Architektur – &lt;em&gt;Composable Catalog Data Model&lt;/em&gt;.&lt;/p&gt;
&lt;p&gt;Der Kerngedanke: Produktdaten kommen aus beliebigen Quellen (ERP, PIM, Magento, Shopify, was auch immer), landen in einem einzigen Basiskatalog und werden dort nach einem einheitlichen Modell gespeichert. Die Storefront greift über GraphQL darauf zu – gefiltert durch &lt;strong&gt;Catalog Views&lt;/strong&gt; und &lt;strong&gt;Policies&lt;/strong&gt; (Regelwerk).&lt;/p&gt;
&lt;p&gt;Das Standardfrontend ist die neue Adobe Commerce Storefront auf Basis von &lt;strong&gt;Edge Delivery Services (EDS)&lt;/strong&gt;. Diese Storefront ist darauf ausgelegt, Produktdaten direkt über die GraphQL-Schicht von ACO zu konsumieren – ohne klassischen Magento-Applikationsstack dazwischen. Wer ein eigenes Headless-Frontend betreiben will, kann ebenfalls direkt auf den GraphQL-Endpoint aufsetzen; die EDS-Storefront bleibt aber der von Adobe vorgesehene und gepflegte Standardweg.&lt;/p&gt;
&lt;h2&gt;Datenerfassung: REST rein&lt;/h2&gt;
&lt;p&gt;Daten kommen über eine &lt;strong&gt;RESTful Data Ingestion API&lt;/strong&gt; in den ACO. Die Base-URL folgt diesem Schema:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-dust hljs dust&quot; data-lang=&quot;dust&quot;&gt;&lt;span class=&quot;xml&quot;&gt;https://&lt;/span&gt;&lt;span class=&quot;hljs-template-variable&quot;&gt;{region}&lt;/span&gt;&lt;span class=&quot;xml&quot;&gt;-&lt;/span&gt;&lt;span class=&quot;hljs-template-variable&quot;&gt;{environment}&lt;/span&gt;&lt;span class=&quot;xml&quot;&gt;.api.commerce.adobe.com/&lt;/span&gt;&lt;span class=&quot;hljs-template-variable&quot;&gt;{tenantId}&lt;/span&gt;&lt;span class=&quot;xml&quot;&gt;
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Alle Requests benötigen einen &lt;code&gt;Authorization&lt;/code&gt;-Header mit Bearer-Token (&lt;a href=&quot;https://experienceleague.adobe.com/de/docs/commerce-admin/start/admin/ims/adobe-ims-integration-overview&quot;&gt;IMS-Credential&lt;/a&gt;-basiert) sowie &lt;code&gt;Content-Type: application/json&lt;/code&gt;.&lt;/p&gt;
&lt;h3&gt;Schritt 1: Attribut-Metadaten definieren&lt;/h3&gt;
&lt;p&gt;Bevor ein einziges Produkt importiert werden kann, müssen die &lt;strong&gt;Attribut-Metadaten&lt;/strong&gt; angelegt werden – und das pro Locale. ACO muss vorab wissen, wie es mit jedem Attribut umgehen soll: Ist es filterbar? Sortierbar? Suchbar? Mit welchem Gewicht?&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -X POST \
  &lt;span class=&quot;hljs-string&quot;&gt;'https://na1-sandbox.api.commerce.adobe.com/{tenantId}/v1/catalog/products/metadata'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Content-Type: application/json'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Authorization: Bearer {accessToken}'&lt;/span&gt; \
  -d &lt;span class=&quot;hljs-string&quot;&gt;'[
    {
      &quot;code&quot;: &quot;name&quot;,
      &quot;source&quot;: { &quot;locale&quot;: &quot;en-US&quot; },
      &quot;label&quot;: &quot;Product Name&quot;,
      &quot;dataType&quot;: &quot;TEXT&quot;,
      &quot;visibleIn&quot;: [&quot;PRODUCT_DETAIL&quot;, &quot;PRODUCT_LISTING&quot;, &quot;SEARCH_RESULTS&quot;],
      &quot;filterable&quot;: false,
      &quot;sortable&quot;: true,
      &quot;searchable&quot;: true,
      &quot;searchWeight&quot;: 1,
      &quot;searchTypes&quot;: [&quot;AUTOCOMPLETE&quot;]
    },
    {
      &quot;code&quot;: &quot;brand&quot;,
      &quot;source&quot;: { &quot;locale&quot;: &quot;en-US&quot; },
      &quot;label&quot;: &quot;Brand&quot;,
      &quot;dataType&quot;: &quot;TEXT&quot;,
      &quot;visibleIn&quot;: [&quot;PRODUCT_LISTING&quot;, &quot;SEARCH_RESULTS&quot;],
      &quot;filterable&quot;: true,
      &quot;sortable&quot;: false,
      &quot;searchable&quot;: true,
      &quot;searchWeight&quot;: 1,
      &quot;searchTypes&quot;: [&quot;AUTOCOMPLETE&quot;, &quot;CONTAINS&quot;, &quot;STARTS_WITH&quot;]
    }
  ]'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Der &lt;code&gt;dataType&lt;/code&gt; kann &lt;code&gt;TEXT&lt;/code&gt;, &lt;code&gt;DECIMAL&lt;/code&gt;, &lt;code&gt;BOOLEAN&lt;/code&gt; oder &lt;code&gt;INT&lt;/code&gt; sein. &lt;code&gt;visibleIn&lt;/code&gt; steuert, wo das Attribut auf der Storefront erscheint: Produktdetailseite, Listing, Suchergebnisse, Vergleich.&lt;/p&gt;
&lt;h3&gt;Schritt 2: Produkte anlegen&lt;/h3&gt;
&lt;p&gt;Danach kommen die eigentlichen Produkte per POST. Das Produkt-Objekt trägt neben den Pflichtfeldern (&lt;code&gt;sku&lt;/code&gt;, &lt;code&gt;source&lt;/code&gt;, &lt;code&gt;name&lt;/code&gt;, &lt;code&gt;slug&lt;/code&gt;, &lt;code&gt;status&lt;/code&gt;) alle benutzerdefinierten Attribute als flache Key/Value-Liste im &lt;code&gt;attributes&lt;/code&gt;-Array. Über &lt;code&gt;routes&lt;/code&gt; wird das Produkt Kategorien zugeordnet.&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -X POST \
  &lt;span class=&quot;hljs-string&quot;&gt;'https://na1-sandbox.api.commerce.adobe.com/{tenantId}/v1/catalog/products'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Content-Type: application/json'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Authorization: Bearer {accessToken}'&lt;/span&gt; \
  -d &lt;span class=&quot;hljs-string&quot;&gt;'[
    {
      &quot;sku&quot;: &quot;aurora-battery-pro-100&quot;,
      &quot;source&quot;: { &quot;locale&quot;: &quot;en-US&quot; },
      &quot;name&quot;: &quot;Aurora Battery Pro 100&quot;,
      &quot;slug&quot;: &quot;aurora-battery-pro-100.html&quot;,
      &quot;status&quot;: &quot;ENABLED&quot;,
      &quot;description&quot;: &quot;High-performance 100Ah lithium battery for electric vehicles.&quot;,
      &quot;shortDescription&quot;: &quot;100Ah LiFePO4 traction battery&quot;,
      &quot;visibleIn&quot;: [&quot;CATALOG&quot;, &quot;SEARCH&quot;],
      &quot;metaTags&quot;: {
        &quot;title&quot;: &quot;Aurora Battery Pro 100&quot;,
        &quot;description&quot;: &quot;100Ah LiFePO4 battery for EVs&quot;,
        &quot;keywords&quot;: [&quot;battery&quot;, &quot;aurora&quot;, &quot;electric vehicle&quot;]
      },
      &quot;attributes&quot;: [
        { &quot;code&quot;: &quot;brand&quot;, &quot;values&quot;: [&quot;Aurora&quot;] },
        { &quot;code&quot;: &quot;location&quot;, &quot;values&quot;: [&quot;US&quot;] },
        { &quot;code&quot;: &quot;capacity_ah&quot;, &quot;values&quot;: [&quot;100&quot;] }
      ],
      &quot;images&quot;: [
        {
          &quot;url&quot;: &quot;https://example.com/images/aurora-battery-pro-100.jpg&quot;,
          &quot;label&quot;: &quot;Aurora Battery Pro 100&quot;,
          &quot;roles&quot;: [&quot;BASE&quot;, &quot;SMALL&quot;],
          &quot;customRoles&quot;: []
        }
      ],
      &quot;routes&quot;: [
        { &quot;path&quot;: &quot;batteries&quot; },
        { &quot;path&quot;: &quot;batteries/lithium&quot;, &quot;position&quot;: 1 }
      ]
    }
  ]'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Auffällig: Alle Attributwerte – egal ob &lt;code&gt;TEXT&lt;/code&gt;, &lt;code&gt;DECIMAL&lt;/code&gt; oder &lt;code&gt;INT&lt;/code&gt; – werden als Strings in &lt;code&gt;values&lt;/code&gt; übergeben. ACO konvertiert sie intern anhand der vorher definierten Metadaten. An manchen Stellen würde ich mir etwas mehr Tiefe im Datenmodell wünschen, um auch kompliziertere Datenstrukturen (z. B. strukturierte Variantenkonfigurationen) sauber abbilden zu können. Das Array-Modell ist funktional, aber manchmal etwas flach.&lt;/p&gt;
&lt;h3&gt;Schritt 3: Price Books und Preise&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;Price Books&lt;/strong&gt; ermöglichen unterschiedliche Preisstrukturen für verschiedene Kundensegmente, Regionen oder Kanäle – ohne den Basiskatalog zu verändern. Price Books können hierarchisch aufgebaut werden: Ein Basis-Price-Book legt die Währung fest, Kind-Price-Books erben davon und können selektiv überschreiben.&lt;/p&gt;
&lt;p&gt;Zunächst werden die Price Books selbst angelegt:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -X POST \
  &lt;span class=&quot;hljs-string&quot;&gt;'https://na1-sandbox.api.commerce.adobe.com/{tenantId}/v1/catalog/price-books'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Content-Type: application/json'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Authorization: Bearer {accessToken}'&lt;/span&gt; \
  -d &lt;span class=&quot;hljs-string&quot;&gt;'[
    {
      &quot;priceBookId&quot;: &quot;us&quot;,
      &quot;name&quot;: &quot;US Base Price Book&quot;,
      &quot;currency&quot;: &quot;USD&quot;
    },
    {
      &quot;priceBookId&quot;: &quot;us-retail&quot;,
      &quot;parentId&quot;: &quot;us&quot;,
      &quot;name&quot;: &quot;US Retail&quot;
    },
    {
      &quot;priceBookId&quot;: &quot;us-wholesale&quot;,
      &quot;parentId&quot;: &quot;us&quot;,
      &quot;name&quot;: &quot;US Wholesale&quot;
    },
    {
      &quot;priceBookId&quot;: &quot;eu&quot;,
      &quot;name&quot;: &quot;EU Base Price Book&quot;,
      &quot;currency&quot;: &quot;EUR&quot;
    }
  ]'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Ein Price Book ohne &lt;code&gt;parentId&lt;/code&gt; ist ein Root-Price-Book und muss eine &lt;code&gt;currency&lt;/code&gt; definieren. Kind-Price-Books erben die Währung vom Parent und brauchen kein eigenes &lt;code&gt;currency&lt;/code&gt;-Feld – nur eine &lt;code&gt;parentId&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Danach werden die Preise pro SKU und Price Book über einen separaten Endpoint gepflegt:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -X POST \
  &lt;span class=&quot;hljs-string&quot;&gt;'https://na1-sandbox.api.commerce.adobe.com/{tenantId}/v1/catalog/products/prices'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Content-Type: application/json'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Authorization: Bearer {accessToken}'&lt;/span&gt; \
  -d &lt;span class=&quot;hljs-string&quot;&gt;'[
    {
      &quot;sku&quot;: &quot;aurora-battery-pro-100&quot;,
      &quot;regular&quot;: 899.99,
      &quot;priceBookId&quot;: &quot;us&quot;
    },
    {
      &quot;sku&quot;: &quot;aurora-battery-pro-100&quot;,
      &quot;regular&quot;: 749.99,
      &quot;priceBookId&quot;: &quot;us-wholesale&quot;
    },
    {
      &quot;sku&quot;: &quot;aurora-battery-pro-100&quot;,
      &quot;regular&quot;: 849.00,
      &quot;priceBookId&quot;: &quot;eu&quot;
    }
  ]'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Dasselbe Produkt bekommt also je nach Price Book einen anderen Preis. Welchen Preis die GraphQL-API zurückliefert, steuert der &lt;code&gt;AC-Price-Book-ID&lt;/code&gt;-Header im Storefront-Request – ohne dass dafür die Produktdaten angepasst werden müssten.&lt;/p&gt;
&lt;h2&gt;Das Datenmodell: Catalog Views und Policies&lt;/h2&gt;
&lt;p&gt;Der eigentlich interessante Teil der CCDM-Architektur ist nicht der Import, sondern die &lt;strong&gt;Filterschicht&lt;/strong&gt;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Catalog Views&lt;/strong&gt; definieren eine Geschäftseinheit: ein Händler, eine Marke, ein Markt. Jede View ist mit einer Katalogquelle (Locale) und einer Menge von Policies verknüpft.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Policies&lt;/strong&gt; sind Datenzugriffsfilter auf Basis von Produktattributen. Eine Policy &lt;code&gt;Brand&lt;/code&gt; mit Wert &lt;code&gt;Aurora&lt;/code&gt; liefert beispielsweise ausschließlich Produkte, die das Attribut &lt;code&gt;brand = Aurora&lt;/code&gt; tragen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Das bedeutet: Derselbe Basiskatalog kann über verschiedene Catalog Views mit verschiedenen Policies völlig unterschiedliche Produktmengen ausliefern – ohne Datenduplizierung. Für Szenarien mit mehreren Marken, Märkten oder Vertriebskanälen ist das ein erheblicher architektonischer Vorteil.&lt;/p&gt;
&lt;p&gt;Ein konkretes Beispiel aus der offiziellen Dokumentation: Ein fiktives Unternehmen (&lt;em&gt;Zenith Automotive&lt;/em&gt;) pflegt einen einzigen Katalog für zwei Marken und zwei Märkte. Statt vier separate Instanzen zu betreiben, wird ein View mit zwei Policies konfiguriert:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Policy &lt;code&gt;Location&lt;/code&gt; filtert nach Zielmarkt (USA, UK)&lt;/li&gt;
&lt;li&gt;Policy &lt;code&gt;Brand&lt;/code&gt; filtert nach Marke (Aurora, Bolt)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ein Produkt trägt die entsprechenden Attribute. Welche Produkte ein API-Aufruf zurückliefert, hängt ausschließlich von den übergebenen Policy-Headern ab – nicht von der Datenstruktur selbst.&lt;/p&gt;
&lt;h2&gt;Datenzugriff: GraphQL raus&lt;/h2&gt;
&lt;p&gt;Die Storefront – ob EDS-basiert oder eine eigene Headless-Implementierung – greift auf die Daten per &lt;strong&gt;GraphQL Merchandising API&lt;/strong&gt; zu. Authentifizierung ist auf dieser Ebene nicht erforderlich; die Steuerung läuft über HTTP-Header:&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Header&lt;/th&gt;
&lt;th&gt;Bedeutung&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;AC-View-ID&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Pflichtfeld – welche Catalog View soll verwendet werden?&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;AC-Policy-{Name}&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Optional – Filterung nach Policy-Wert, z. B. &lt;code&gt;AC-Policy-Brand: Aurora&lt;/code&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;AC-Price-Book-ID&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Optional – welches Price Book soll für die Preisberechnung genutzt werden?&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Eine typische Produktsuche sieht so aus:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -X POST \
  &lt;span class=&quot;hljs-string&quot;&gt;'https://na1-sandbox.api.commerce.adobe.com/{tenantId}/graphql'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'Content-Type: application/json'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'AC-View-ID: {catalogViewId}'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'AC-Policy-Brand: Aurora'&lt;/span&gt; \
  -H &lt;span class=&quot;hljs-string&quot;&gt;'AC-Price-Book-ID: us-wholesale'&lt;/span&gt; \
  -d &lt;span class=&quot;hljs-string&quot;&gt;'{
    &quot;query&quot;: &quot;query ProductSearch($search: String!) {
      productSearch(phrase: $search, page_size: 10) {
        items {
          productView {
            sku
            name
            description
            images { url }
            ... on SimpleProductView {
              price {
                regular {
                  amount { value currency }
                }
              }
            }
          }
        }
      }
    }&quot;,
    &quot;variables&quot;: { &quot;search&quot;: &quot;battery&quot; }
  }'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Die Response enthält ausschließlich Produkte, die zur konfigurierten View und Policy passen. Das Frontend muss nur die richtigen Header mitschicken – die gesamte Kataloglogik liegt in der ACO-Konfiguration.&lt;/p&gt;
&lt;h2&gt;Praktische Use Cases&lt;/h2&gt;
&lt;p&gt;Wo ist dieser Ansatz in der Praxis relevant?&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Multi-Brand-Händler ohne Datensilos:&lt;/strong&gt; Wer heute für jede Marke eine separate Magento-Instanz betreibt, kennt den Aufwand: Doppelte Pflege, doppelte Synchronisation, doppelter Upgrade-Aufwand. Mit CCDM ist das ein einziger Basiskatalog mit konfigurierten Views – und die organisatorische Trennung bleibt über Policies erhalten.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Internationalisierung ohne Datenduplizierung:&lt;/strong&gt; Verschiedene Märkte, verschiedene Preise, verschiedene Sortimente – über Price Books und Policies steuerbar, ohne den Katalog zu kopieren.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Headless-Storefronts mit beliebigem Backend:&lt;/strong&gt; ACO ist explizit darauf ausgelegt, dass das datenliefernde System kein Adobe Commerce sein muss. ERP, PIM, Shopify, ein eigenes System – alles kann über die REST Ingestion API einspeisen. Die EDS-Storefront konsumiert dann via GraphQL. Wer die EDS-Storefront nicht nutzen will, kann mit einem eigenen Frontend direkt an den GraphQL-Endpoint andocken. Ich habe das exemplarisch umgesetzt unter &lt;a href=&quot;https://aco.demo.muench.dev&quot;&gt;aco.demo.muench.dev&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Warenkorb und Checkout bleiben flexibel:&lt;/strong&gt; ACO stellt bewusst keinen Warenkorb bereit. Der wird über API Mesh oder App Builder an ein bestehendes System angebunden. Das ist pragmatisch – und verhindert, dass für einen Storefront-Umbau die gesamte Transaktionslogik angefasst werden muss.&lt;/p&gt;
&lt;h2&gt;Ehrliche Einschätzung&lt;/h2&gt;
&lt;p&gt;Das Modell ist relativ einfach aufgebaut (mir manchmal zu einfach). Die klare Trennung zwischen Ingestion (REST), Konfiguration (Catalog Views/Policies) und Delivery (GraphQL) ist sauber durchdacht. Gerade für komplexe Multi-Brand- oder Multi-Market-Setups ist das eine Architektur, die in klassischen Magento-Projekten mit erheblich mehr Aufwand gebaut werden muss.&lt;/p&gt;
&lt;p&gt;Allerdings bietet ACO keine Transaktionslogik direkt von Haus aus an. Alles was komplizierter ist, muss momentan selbst angebaut werden.&lt;/p&gt;
&lt;p&gt;Dazu kommt: ACO ist &lt;strong&gt;SaaS-only&lt;/strong&gt;. Für Händler, die ihre Datenhaltung im eigenen Rechenzentrum behalten müssen oder wollen – ein Thema, das ich im &lt;a href=&quot;&quot;&gt;Tech-Trends-Post für 2026&lt;/a&gt; unter dem Stichwort Sovereign Commerce ausgeführt habe – ist ACO in seiner aktuellen Form keine Option.&lt;/p&gt;
&lt;p&gt;Für die richtige Zielgruppe dagegen – Enterprise-Händler mit komplexen Katalogstrukturen, die ihren bestehenden Backend-Stack behalten und die Storefront-Experience modernisieren wollen – ist ACO ein überzeugender Ansatz.&lt;/p&gt;
&lt;p&gt;Für alle die vielleicht schon eine sehr heterogene Landschaft haben und sowieso vieles auf Services verteilt haben, ist ACO echt spannend. Die Stärken von ACO sind auch immer in Verbindung mit einem hochskalierenden Frontend auf Basis von Adobe Edge Delivery Services zu sehen. Wer nur einach Daten halten und ausspielen will, für den ist ACO vielleicht nicht das richtige. Das heisst aber nicht, dass es nicht auch spannend sein kann ein eigenes Frontend direkt auf die GraphQL Schnittstelle zu setzen.&lt;/p&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Das &lt;strong&gt;Unified Data Model&lt;/strong&gt; hinter Adobe Commerce Optimizer ist keine Abstraktionsschicht ohne Substanz. Es ist ein einfaches, quellenunabhängiges Katalogmodell: Daten kommen per REST-API rein, werden über Catalog Views und Policies konfiguriert und per GraphQL ausgeliefert – an die EDS-Storefront oder ein eigenes Frontend.&lt;/p&gt;
&lt;p&gt;Wer das selbst erkunden will: Die offizielle Dokumentation ist inzwischen gut aufgestellt. Einstiegspunkte sind die &lt;a href=&quot;https://developer.adobe.com/commerce/services/optimizer/data-ingestion/using-the-api/&quot;&gt;Developer-Doku zur Data Ingestion API&lt;/a&gt; und der &lt;a href=&quot;https://developer.adobe.com/commerce/services/optimizer/ccdm-use-case/&quot;&gt;End-to-End Use Case&lt;/a&gt; in der Adobe-Dokumentation. Ihr braucht dann zum Ausprobieren eine Sandbox von Adobe oder lasst es euch von mir zeigen. :-)&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Agentic Commerce: Wenn KI-Agenten den Einkaufswagen übernehmen</title>
        <link href="https://muench.dev/post/2026-04-agentic-commerce-wenn-ki-agenten-den-einkaufswagen-uebernehmen"/>
        <id>https://muench.dev/post/2026-04-agentic-commerce-wenn-ki-agenten-den-einkaufswagen-uebernehmen</id>
        <published>2026-04-10T05:00:00+00:00</published>
        <updated>2026-04-10T10:52:47+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;In den letzten Monaten beschäftigt mich ein Thema mehr als jedes andere im E-Commerce-Umfeld: &lt;strong&gt;Agentic Commerce&lt;/strong&gt;. KI-Agenten, die autonom einkaufen, verhandeln und bezahlen – ohne dass ein Mensch auch nur einen Button klickt. Das klingt nach Science-Fiction, ist aber bereits Realität. Und wer im Magento/Adobe-Commerce-Ökosystem unterwegs ist, sollte jetzt genauer hinschauen. Aus diesem Grund gibt es in diesem Blog-Beitrag auch einen Blick ins Magento Ökosystem.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-automation-curve-in-agentic-commerce&quot;&gt;McKinsey&lt;/a&gt; beziffert das globale Marktpotenzial auf &lt;strong&gt;3–5 Billionen US-Dollar bis 2030&lt;/strong&gt;, &lt;a href=&quot;https://www.gartner.com/en/articles/strategic-predictions-for-2026&quot;&gt;Gartner&lt;/a&gt; prognostiziert, dass 90 % aller B2B-Einkäufe bis 2028 von KI-Agenten abgewickelt werden. Gleichzeitig zeigt ein nüchterner Blick auf die aktuellen Daten: Der Hype ist der realen Nutzeradoption weit voraus. OpenAI hat sein Instant Checkout in ChatGPT Anfang 2026 bereits wieder auf Händler-Apps umgestellt. Deutsche Verbraucher würden einem KI-Agenten im Schnitt maximal 50 Euro pro Monat anvertrauen.&lt;/p&gt;
&lt;p&gt;Ich versuche in diesem Post, das Thema strukturiert aufzudröseln: Was ist Agentic Commerce überhaupt? Welche Protokolle setzen sich durch? Wer sind die relevanten Player? Und was bedeutet das konkret für das Magento/Adobe-Ökosystem?&lt;/p&gt;
&lt;h2&gt;Was Agentic Commerce vom klassischen E-Commerce unterscheidet&lt;/h2&gt;
&lt;p&gt;Der entscheidende Unterschied liegt in der Rollenverteilung. Im traditionellen E-Commerce sucht, vergleicht und kauft der Mensch aktiv. Bei Conversational Commerce führt ein Chatbot ein Gespräch, aber der Mensch entscheidet. Bei &lt;strong&gt;Agentic Commerce delegiert der Mensch&lt;/strong&gt; – er definiert Ziele, Budget und Präferenzen, und der Agent handelt innerhalb dieser Leitplanken eigenständig.&lt;/p&gt;
&lt;p&gt;Deloitte beschreibt vier evolutionäre Stufen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Assisted Discovery&lt;/strong&gt; – KI hilft bei der Produktsuche&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agentic Shopping&lt;/strong&gt; – Agent übernimmt Teilschritte autonom&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Autonomous Shopping&lt;/strong&gt; – vollständig eigenständige Käufe&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent-to-Agent Commerce&lt;/strong&gt; – Käufer- und Verkäufer-Agenten verhandeln direkt miteinander, ohne dass je ein Mensch einen Bildschirm sieht&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Wir stehen gerade zwischen Stufe 1 und 2. Stufe 4 ist Zukunft – aber die Infrastruktur dafür entsteht jetzt.&lt;/p&gt;
&lt;h2&gt;Der Protokoll-Stack: Kein Krieg, sondern Schichten&lt;/h2&gt;
&lt;p&gt;Anfangs gab es viel Lärm um einen angeblichen „Protocol War&amp;quot; zwischen MCP, A2A, UCP und ACP. Das hat sich inzwischen differenziert. Die Protokolle sind &lt;strong&gt;keine Konkurrenten, sondern Schichten eines gemeinsamen Stacks&lt;/strong&gt;.&lt;/p&gt;
&lt;h3&gt;MCP – die universelle Datenschicht&lt;/h3&gt;
&lt;p&gt;Das &lt;a href=&quot;https://en.wikipedia.org/wiki/Model_Context_Protocol&quot;&gt;Model Context Protocol (MCP)&lt;/a&gt;, im November 2024 von Anthropic vorgestellt, ist mittlerweile der De-facto-Standard dafür, wie Sprachmodelle auf externe Daten, APIs und Tools zugreifen. Es funktioniert wie „USB-C für KI&amp;quot; – eine standardisierte Schnittstelle, unabhängig vom Modell-Hersteller.&lt;/p&gt;
&lt;p&gt;Im Dezember 2025 übergab Anthropic MCP an die &lt;strong&gt;&lt;a href=&quot;https://www.linuxfoundation.org/press/linux-foundation-announces-the-formation-of-the-agentic-ai-foundation&quot;&gt;Agentic AI Foundation (AAIF)&lt;/a&gt;&lt;/strong&gt; unter dem Dach der Linux Foundation. Gründungsmitglieder sind AWS, Google, Microsoft und OpenAI – inzwischen sind über 10.000 öffentliche MCP-Server registriert. Das ist ein starkes Signal für langfristige Stabilität.&lt;/p&gt;
&lt;h3&gt;A2A – Agenten reden miteinander&lt;/h3&gt;
&lt;p&gt;Googles &lt;strong&gt;&lt;a href=&quot;https://www.ibm.com/think/topics/agent2agent-protocol&quot;&gt;Agent-to-Agent Protocol (A2A)&lt;/a&gt;&lt;/strong&gt;, im April 2025 vorgestellt, ermöglicht Agenten unterschiedlicher Hersteller, einander zu entdecken und Aufgaben zu delegieren. Kernkonzept sind &lt;strong&gt;Agent Cards&lt;/strong&gt; – JSON-Metadaten unter &lt;code&gt;/.well-known/agent.json&lt;/code&gt;, die Fähigkeiten und Auth-Anforderungen beschreiben. Quasi eine Visitenkarte für Agenten. Im Juni 2025 ebenfalls an die Linux Foundation übergeben, inzwischen mit 150+ unterstützenden Organisationen.&lt;/p&gt;
&lt;h3&gt;UCP vs. ACP – die eigentliche Protokollfrage im Commerce&lt;/h3&gt;
&lt;p&gt;Das ist die Frage, die mich im Moment am meisten beschäftigt. Die Kollegen bei valantic haben dazu einen lesenswerten &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-protocol/&quot;&gt;Deep-Dive zum Agentic Commerce Protocol&lt;/a&gt; veröffentlicht, der die technischen Unterschiede beider Ansätze gut herausarbeitet.&lt;/p&gt;
&lt;p&gt;Das &lt;strong&gt;Universal Commerce Protocol (UCP)&lt;/strong&gt; wurde im Januar 2026 auf der NRF von Google und Shopify gemeinsam vorgestellt. Es deckt den kompletten Commerce-Lebenszyklus ab – von Discovery über Checkout bis Post-Purchase-Support. Transport-agnostisch, mit REST-, MCP- und A2A-Bindings. Die Koalition dahinter ist beeindruckend: Walmart, Target, Etsy, Wayfair, Zalando, Mastercard, Visa, Stripe und 20+ weitere Partner.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/ucp-checkout.png&quot; alt=&quot;UCP Checkout&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Universal Commerce Protocol: Checkout Sequenz&lt;/em&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Layered Architecture&lt;/strong&gt;: UCP trennt die Verantwortlichkeiten in Schichten. Der Shopping Service definiert die Grundbausteine (Warenkorb, Status), während Capabilities (Checkout, Catalog, Orders) und Extensions (z. B. spezielle Liefermodelle) flexibel hinzugefügt werden können.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Discovery via /.well-known&lt;/strong&gt;: Ähnlich wie bei A2A nutzt UCP einen standardisierten Pfad (/.well-known/ucp), über den Agenten die &amp;quot;Fähigkeiten&amp;quot; eines Shops entdecken und aushandeln können, welche Protokollversionen beide Seiten beherrschen.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;State-Management&lt;/strong&gt;: Ein Checkout im UCP durchläuft definierte Zustände: incomplete (fehlende Daten), requires_escalation (Eingriff nötig) und ready_for_complete (bereit zum Abschluss). Dies ermöglicht den nahtlosen Übergang zwischen KI-Automatisierung und menschlicher Interaktion über das Embedded Checkout Protocol (ECP).&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Das &lt;strong&gt;Agentic Commerce Protocol (ACP)&lt;/strong&gt; wurde von OpenAI und Stripe entwickelt und trieb ChatGPTs „Instant Checkout&amp;quot; an. &lt;a href=&quot;https://www.digitalcommerce360.com/2026/03/06/openai-shifts-checkout-plans-agentic-commerce-strategy/&quot;&gt;OpenAI hat diesen Ansatz Anfang März 2026 jedoch bereits angepasst&lt;/a&gt;: Der Checkout-Prozess verlagert sich zunehmend in händlerspezifische „ChatGPT Apps&amp;quot;, weil die Komplexität des Handels – dynamische Preise, Echtzeit-Bestände, Steuerregeln – besser in kontrollierten Händler-Umgebungen abgebildet werden kann. Walmart meldete eine 3x schlechtere Conversion als auf walmart.com direkt.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/acp-checkout.png&quot; alt=&quot;ACP Checkout&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Agentic Commerce Protocol: Checkout Sequenz&lt;/em&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Minimalistische Architektur&lt;/strong&gt;: Das Protokoll beschränkt sich auf die vier Endpunkte Create, Update, Complete und Cancel Checkout, um die Komplexität für Händler gering zu halten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Shared Payment Token (SPT)&lt;/strong&gt;: Dies ist der entscheidende Sicherheitsmechanismus. Der Agent (z. B. ChatGPT) sieht niemals die echten Kreditkartendaten des Nutzers. Er erhält lediglich einen &amp;quot;selbstzerstörenden&amp;quot;, einmaligen Token von Stripe, den er an den Händler weiterreicht.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Merchant of Record&lt;/strong&gt;: Im ACP-Modell bleibt der Händler der rechtliche Verkäufer (&amp;quot;Merchant of Record&amp;quot;) und behält die Kontrolle über die Abwicklung, Steuern und den Kundensupport.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Voraussetzung&lt;/strong&gt;: Händler müssen ihre Produktkataloge maschinenlesbar (Product Feed) bereitstellen und ihre Checkout-Logik über die ACP-Schnittstellen zugänglich machen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Strategisch klug aufgestellt sind Stripe und Shopify&lt;/strong&gt; – beide sind in beiden Lagern vertreten. Das macht sie zu Gewinnern unabhängig vom Ausgang.&lt;/p&gt;
&lt;h3&gt;AP2 und ANP als Ergänzungen&lt;/h3&gt;
&lt;p&gt;Googles &lt;strong&gt;Agent Payments Protocol (AP2)&lt;/strong&gt; regelt die kryptographisch abgesicherte Payment-Autorisierung durch Agenten, mit drei abgestuften Autonomie-Levels.&lt;/p&gt;
&lt;p&gt;Das AP2 nutzt das Konzept der Verifiable Credentials (VC), um Vertrauen in autonomen Systemen zu schaffen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Intent Mandate (Absicht)&lt;/strong&gt;: Erteilt dem Agenten den Auftrag, innerhalb bestimmter Leitplanken (z. B. „maximal 150 €“) zu suchen und zu verhandeln. Es dient als Beweis, dass der Agent nicht eigenmächtig handelt.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Cart Mandate (Warenkorb)&lt;/strong&gt;: Dieses Dokument wird vom Händler und vom Nutzer signiert. Es fixiert den Preis und die Artikelmenge, sodass der Agent den Preis während des Checkouts nicht mehr (zuungunsten des Nutzers) verändern kann.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Payment Mandate (Zahlung)&lt;/strong&gt;: Ein minimaler Datensatz, der an die Bank übermittelt wird. Er signalisiert dem Zahlungsnetzwerk, ob der Nutzer gerade anwesend ist (Human-Present) oder ob der Agent eine vorab genehmigte Daueraufgabe ausführt (Human-Not-Present).&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/ap2.png&quot; alt=&quot;AP2 Mandat&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Das &lt;strong&gt;Agent Network Protocol (ANP)&lt;/strong&gt; verfolgt den ambitioniertesten Ansatz mit dezentraler Agenten-Entdeckung via W3C DIDs – ist aber ohne starkes Unternehmens-Backing noch deutlich weniger reif.&lt;/p&gt;
&lt;p&gt;ANP verfolgt im Gegensatz zu den meist Client-Server-basierten Protokollen wie ACP oder UCP einen radikal dezentralen &lt;strong&gt;Peer-to-Peer (P2P)&lt;/strong&gt; Ansatz. Es wird oft als das „HTTP des Agentic Web“ bezeichnet und setzt konsequent auf Web-Standards wie W3C DIDs (Decentralized Identifiers) und Semantic Web Technologien.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/anp.png&quot; alt=&quot;ANP Protokoll&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Mandat im ANP Protokoll&lt;/em&gt;&lt;/p&gt;
&lt;h3&gt;Computer Use als pragmatischer Fallback&lt;/h3&gt;
&lt;p&gt;Für die vielen Websites ohne API-Anbindung bleibt Browser-Automatisierung der Fallback. Claudes Computer Use erreicht inzwischen 72,5 % auf dem OSWorld-Benchmark (von 14,9 % bei Launch). Langsamer und fehleranfälliger als saubere APIs – aber sofort einsetzbar. McKinsey sieht Web-Crawling als Zwischenschritt, bevor Merchants standardisierte Protokolle implementieren.&lt;/p&gt;
&lt;h2&gt;Wer baut die Infrastruktur?&lt;/h2&gt;
&lt;h3&gt;Shopify hat den größten Vorsprung&lt;/h3&gt;
&lt;p&gt;Shopify ist der aggressivste Akteur. Seit den Summer '25 Editions hat &lt;strong&gt;jeder Shopify-Store einen eigenen MCP-Endpoint&lt;/strong&gt; (&lt;code&gt;your-store.myshopify.com/api/mcp&lt;/code&gt;). Der &lt;strong&gt;Shopify Catalog&lt;/strong&gt; kategorisiert Milliarden von Produkten für KI-Agenten. &lt;strong&gt;Agentic Storefronts&lt;/strong&gt; ermöglichen es Händlern, ihre Markenpräsenz auf ChatGPT, Perplexity, Google Gemini und Microsoft Copilot direkt aus dem Admin zu steuern.&lt;/p&gt;
&lt;p&gt;Besonders interessant: Der neue &lt;strong&gt;Agentic Plan&lt;/strong&gt; öffnet den Shopify Catalog explizit für Marken auf Magento, Salesforce Commerce Cloud und Custom-Stacks – ohne Migration. Das ist eine aggressive Einladung an unsere Community.&lt;/p&gt;
&lt;h3&gt;Google baut den vollständigsten Stack&lt;/h3&gt;
&lt;p&gt;Google hat: eigene Protokolle (A2A, AP2), gemeinsam mit Shopify entwickelten Commerce-Standard (UCP), 50 Milliarden indexierte Produkte im Shopping Graph, KI-Shopping in AI Mode und Gemini sowie eine neue Enterprise-Plattform mit Kroger, Lowe's und Woolworths als Live-Kunden. Über eine Milliarde Shopping-Interaktionen täglich laufen durch Google-Oberflächen.&lt;/p&gt;
&lt;h3&gt;Adobe Commerce ist drin – aber noch nicht live&lt;/h3&gt;
&lt;p&gt;Für unser Ökosystem ist die Situation ehrlich gesagt gemischt. &lt;a href=&quot;https://business.adobe.com/blog/adobe-commerce-commits-to-agentic-commerce-standards&quot;&gt;Adobe hat am 18. Februar 2026 offiziell die Unterstützung von UCP, ACP und AP2 angekündigt&lt;/a&gt; – aber noch kein Live-Shopping über KI-Plattformen. Während Shopify-Händler bereits über ChatGPT und Gemini verkaufen, baut Adobe seine Grundlagen noch auf.&lt;/p&gt;
&lt;p&gt;Adobe nennt dabei beeindruckende Zahlen aus dem &lt;a href=&quot;https://www.digitalcommerce360.com/2026/02/23/adobe-commerce-platform-agentic-ai-standards/&quot;&gt;Adobe Digital Insights Report vom Januar 2026&lt;/a&gt;: KI-Referrals erzielen eine 31 % höhere Konversionsrate, 254 % mehr Umsatz pro Besuch und 45 % längere Verweildauer gegenüber herkömmlichem Traffic.&lt;/p&gt;
&lt;p&gt;Adobes Strategie hat drei Säulen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Discovery Layer&lt;/strong&gt; mit dem LLM Optimizer (GA seit Oktober 2025) – macht Produktkataloge für KI-Agenten auffindbar&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent-to-Agent Commerce Layer&lt;/strong&gt; durch UCP/ACP-Unterstützung (angekündigt, noch nicht live)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Brand-Owned Experience&lt;/strong&gt; mit dem Adobe Brand Concierge als konversationelle KI-Schicht auf AEP-Profildaten&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der &lt;strong&gt;&lt;a href=&quot;https://business.adobe.com/summit/2025/sessions/optimize-your-commerce-experiences-with-catalog-s304.html&quot;&gt;Adobe Commerce Optimizer&lt;/a&gt;&lt;/strong&gt; ist das vielversprechendste neue Produkt: ein eigenständiges Commerce-Frontend auf Edge Delivery Services mit Lighthouse-Score 100, einer GraphQL-Merchandising API für Agents und Frontends sowie einer Data Ingestion REST API. Entscheidend: Es arbeitet mit jedem Commerce-Backend, nicht nur Adobe Commerce.&lt;/p&gt;
&lt;p&gt;Die &lt;strong&gt;&lt;a href=&quot;https://experienceleague.adobe.com/en/docs/experience-cloud-ai/experience-cloud-ai/agents/agent-orchestrator&quot;&gt;AEP Agent Orchestrator&lt;/a&gt;&lt;/strong&gt; Plattform (GA September 2025) ist das technische Fundament: 10 zweckgebundene KI-Agenten, ein Reasoning Engine, Agent SDK und Agent Registry. Über 70 % der berechtigten AEP-Kunden nutzen bereits den AI Assistant.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/media_1ff35d548470de5ced1d492e199ffe9e831b256fd.webp&quot; alt=&quot;Components of Agent Orchestrator&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Bildquelle: Adobe&lt;/em&gt;&lt;/p&gt;
&lt;h3&gt;Das Magento MCP-Ökosystem lebt&lt;/h3&gt;
&lt;p&gt;Was mich positiv überrascht hat: Das MCP-Ökosystem rund um Magento ist überraschend lebendig. Neben dem offiziellen &lt;strong&gt;Adobe Commerce Extensibility MCP Server&lt;/strong&gt; (mit RAG-Zugriff auf die gesamte Dokumentation und 7 AI-Agent-Skills) gibt es mindestens 10 Community-Server:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://dev.to/rafaelcg/why-i-built-an-adobe-commerce-dev-mcp-server-and-how-it-can-help-you-code-faster-5ac9&quot;&gt;Rafael Corrêa Gomes' GraphQL-basierter Dev MCP&lt;/a&gt; (Practice Director bei Valtech)&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://mirasvit.com/magento-2-mcp-ai-integration.html&quot;&gt;Mirasvits kommerzieller AI Agent Connector&lt;/a&gt; – ermöglicht Befehle wie „Reduziere alle Sommerprodukte, die sich 30 Tage nicht verkauft haben, um 15 %&amp;quot;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://commercemarketplace.adobe.com/partner/Freento&quot;&gt;Freentos Extension auf dem Adobe Marketplace&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://magenable.com.au/data-science/connect-your-magento-or-adobe-commerce-store-with-openai-agent-builder/&quot;&gt;Magenable Magento MPC&lt;/a&gt; für OpenAI Agent Builder&lt;/li&gt;
&lt;li&gt;Magendoos REST- und GraphQL-MCP-Server mit 594 Endpoints und weitere&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://mage-remote-run.muench.dev/command-docs/mcp&quot;&gt;mage-remote-run MCP&lt;/a&gt; - Der Vollständigkeit wegen liste ich hier auch den MCP Server meines eigenen neuen Tools über den mal auch beliebige Shops flexibel andocken kann ohne etwas in dem jeweiligen Shop zu installieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Die Community reagiert schnell. Ob das reicht, um mit Shopifys nativem MCP-Endpoint pro Store mitzuhalten – das ist die Frage, die mich treibt.&lt;/p&gt;
&lt;h3&gt;ACP-Module für Magento 2: Die Community liefert bereits&lt;/h3&gt;
&lt;p&gt;Parallel zum MCP-Ökosystem entstehen erste Open-Source-Implementierungen des Agentic Commerce Protocol direkt für Magento 2. Zwei Projekte, die ich im Blick habe:&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a href=&quot;https://github.com/run-as-root/ACP-for-Magento-2&quot;&gt;run-as-root/ACP-for-Magento-2&lt;/a&gt;&lt;/strong&gt; ist das technisch ausgefeilteste der beiden. Das Modul der Würzburger Agentur run_as_root setzt zu 95 % die OpenAI-ACP-Spezifikation um: vollständige Checkout Session API mit fünf Endpunkten, ACP-konformer Product Feed (inkl. Varianten, Gallery-Images, Echtzeit-Inventory), HMAC-Signaturvalidierung, Idempotency-Key-Handling via Redis und Replay-Attack-Schutz. Die Stripe-Integration für Delegated Payments ist dabei, ebenso wie 39 Unit- und Integrationstests.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a href=&quot;https://github.com/magebitcom/magento2-agentic-commerce-module&quot;&gt;magebitcom/magento2-agentic-commerce-module&lt;/a&gt;&lt;/strong&gt; kommt von der lettischen Agentur Magebit und bezeichnet sich selbst als erstes öffentlich verfügbares Open-Source-ACP-Modul für Magento 2. Der Funktionsumfang ist ähnlich: ChatGPT-kompatibler Product Feed Export, Instant Checkout, Delegated Payment via Stripe, Webhooks. Wichtig: Das Modul ist &lt;strong&gt;Hyva- und Adobe Commerce Cloud-kompatibel&lt;/strong&gt; – das ist für viele Projekte entscheidend.&lt;/p&gt;
&lt;h3&gt;Salesforce und Amazon der Vollständigkeit halber&lt;/h3&gt;
&lt;p&gt;Salesforce hat mit Agentforce Commerce (GA November 2025) über 6.000 bezahlte Deals abgeschlossen. Die KI-gestützte Intent-Aware Search basiert auf einem Commerce-optimierten Small Language Model. Salesforce-eigene Daten: KI-Agenten beeinflussten 17 % ($13,5 Mrd.) der Holiday-Weekend-Bestellungen 2025.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://ppc.land/amazons-ai-shopping-assistant-drove-12-billion-in-sales-for-2025/&quot;&gt;Amazon betreibt mit Rufus&lt;/a&gt; (300 Millionen aktive Nutzer, geschätzt 12 Mrd. Dollar inkrementeller Jahresumsatz) und der „Buy for Me&amp;quot;-Funktion ein geschlossenes Ökosystem. Alle OpenAI-Crawler blockiert, nicht in ACP oder UCP integriert. &lt;strong&gt;40 % des US-E-Commerce sind damit für externe KI-Agenten unsichtbar&lt;/strong&gt; – eine strategische Entscheidung, die Amazon teuer werden könnte.&lt;/p&gt;
&lt;h3&gt;Stripe als Payment-Schicht beider Welten&lt;/h3&gt;
&lt;p&gt;Stripe hat mit der Agentic Commerce Suite (Dezember 2025) eine vollständige Lösung: Katalog-Syndizierung, Checkout, Payments und Fraud Detection. &lt;strong&gt;&lt;a href=&quot;https://defiprime.com/stripe-mpp-vs-x402&quot;&gt;Shared Payment Tokens (SPT)&lt;/a&gt;&lt;/strong&gt; – einmal verwendbar, widerrufbar, programmierbar – lösen das Problem, wie Agenten sicher bezahlen können, ohne Zahlungsdaten offenzulegen. Parallel dazu treiben Coinbase und Cloudflare den &lt;strong&gt;&lt;a href=&quot;http://www.rootdata.com/news/584290&quot;&gt;x402-Standard&lt;/a&gt;&lt;/strong&gt; voran – optimiert für Micropayments im Machine-to-Machine-Bereich. Bis März 2026 wurden darüber bereits 50 Millionen Transaktionen abgewickelt, durchschnittlich 0,20 US-Dollar je Transaktion.&lt;/p&gt;
&lt;p&gt;Was der Wandel für PSPs konkret bedeutet, beleuchtet valantic in einem separaten Artikel: &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-payment-service-provider/&quot;&gt;Agentic Commerce und Payment Service Provider&lt;/a&gt;.&lt;/p&gt;
&lt;h2&gt;Was Agentic Commerce konkret bedeutet&lt;/h2&gt;
&lt;h3&gt;Im B2C noch in der Frühphase&lt;/h3&gt;
&lt;p&gt;Amazons „Buy for Me&amp;quot; (Beta seit April 2025), Googles entsprechendes Feature in Gemini, ChatGPT Shopping mit 50 Millionen täglichen Anfragen – die erste Welle läuft. Autonomous Reordering durch IoT-Geräte, Preisvergleichs-Agenten, die dutzende Retailer simultan scannen und beim optimalen Zeitpunkt kaufen – das sind die ersten real nutzbaren Use Cases.&lt;/p&gt;
&lt;p&gt;Laut &lt;a href=&quot;https://martech.org/how-ai-agents-shaped-the-record-breaking-2025-holiday-season/&quot;&gt;Adobe&lt;/a&gt; beeinflussten KI-Agenten in der Weihnachtssaison 2025 bereits &lt;strong&gt;262 Milliarden US-Dollar&lt;/strong&gt; des globalen Online-Umsatzes. KI-generierte Produktempfehlungen erzielen eine 4,4-fach höhere Konversionsrate als die traditionelle Suche.&lt;/p&gt;
&lt;h3&gt;Im B2B liegt der eigentliche Hebel&lt;/h3&gt;
&lt;p&gt;Hier sehe ich das größte Potenzial. Procurement-Agenten überwachen Verbrauchssignale, validieren Vertragspreise und platzieren Orders automatisch unter Budgetlimits. Auf der Verkäuferseite reagiert ein Sales Agent dynamisch, passt Rabatte und Lieferkonditionen an und schließt die Bestellung ab – alles in Sekunden. &lt;a href=&quot;https://www.digitalcommerce360.com/2025/11/28/gartner-ai-agents-15-trillion-in-b2b-purchases-by-2028/&quot;&gt;Gartner prognostiziert bis 2028 ein B2B-Beschaffungsvolumen von 15 Billionen US-Dollar&lt;/a&gt; durch KI-vermittelte Einkäufe.&lt;/p&gt;
&lt;h3&gt;Die unbequemen Fragen: Vertrauen, Haftung, Sichtbarkeit&lt;/h3&gt;
&lt;p&gt;Was die Adoption bremst, sind nicht die Protokolle – sondern &lt;strong&gt;Vertrauen und ungelöste Haftungsfragen&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Eine Riverty/Adyen-Umfrage (1.000 Deutsche, Dezember 2025) zeigt: 50 % würden KI-Agenten maximal 50 Euro pro Monat anvertrauen. 46 % assoziieren KI-Shopping mit Skepsis. 93 % verlangen, KI-Entscheidungen jederzeit einsehen und stoppen zu können.&lt;/p&gt;
&lt;p&gt;Die Haftungsfrage ist juristisch ungeklärt. Wer haftet, wenn der Agent falsch kauft? Vermutlich bleibt es am Merchant hängen. Hinzu kommt ein 25 % Anstieg bösartiger Händleraktivitäten im Zusammenhang mit Agentic Commerce (Visa) – Betrüger manipulieren agentische Shopping-Ergebnisse gezielt.&lt;/p&gt;
&lt;p&gt;Und dann ist da noch &lt;strong&gt;Agent Optimization&lt;/strong&gt; – der Nachfolger von SEO. Wenn nicht mehr Menschen, sondern KI-Agenten die ersten „Kunden&amp;quot; sind, braucht es maschinenlesbare Produktdaten, strukturierte Kataloge und API-First-Architektur. &lt;a href=&quot;https://www.creatuity.com/insights/agentic-ai-commerce-adobe-commerce-readiness/&quot;&gt;Creatuity empfiehlt&lt;/a&gt; dabei konkret: vollständige Produktattribute (technische Daten, Materialien, Zertifizierungen), GraphQL-Abdeckung (reduziert Payload um 30–50 %) und korrektes Schema.org Markup. Gartner prognostiziert einen 25 % Rückgang des traditionellen Suchvolumens bis 2026. Der KI-getriebene Traffic zu US-Retail-Sites stieg laut Adobe im Juli 2025 um 4.700 % im Jahresvergleich.&lt;/p&gt;
&lt;p&gt;Eine zentrale strategische Frage bleibt dabei oft ungestellt: &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-webshop-strategie/&quot;&gt;Brauchen wir in Zukunft überhaupt noch eigene Webshops?&lt;/a&gt; Die valantic-Kollegen haben das klar eingeordnet: Der Webshop verschwindet nicht, seine Rolle verschiebt sich aber vom zentralen Einstiegspunkt zum Fundament eines vernetzten Vertriebssystems. Wer eine modulare, API-basierte Architektur betreibt, ist klar im Vorteil.&lt;/p&gt;
&lt;h2&gt;Mein Fazit (bisher)&lt;/h2&gt;
&lt;p&gt;Agentic Commerce ist weder bloßer Hype noch unmittelbare Revolution – es ist eine &lt;strong&gt;fundamentale Infrastruktur-Transformation&lt;/strong&gt;, deren Nutzung der Technologie um 12–24 Monate hinterherhinkt.&lt;/p&gt;
&lt;p&gt;Für das Magento/Adobe-Commerce-Ökosystem sehe ich eine gemischte Lage: Wir haben eine lebendige MCP-Community, reichhaltige APIs und mit dem Commerce Optimizer ein zukunftsfähiges Produkt. Der Rückstand auf Shopifys native Agentic Storefronts ist aber real – und die Community holt aktiv auf, wie die ersten ACP-Module zeigen.&lt;/p&gt;
&lt;p&gt;Was ich jedem empfehle, der heute im Commerce-Bereich entwickelt:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;MCP-Server für den eigenen Shop evaluieren&lt;/strong&gt; – ob offiziell, kommerziell oder aus der Community&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;ACP-Modul testen&lt;/strong&gt; – Magebit oder run-as-root bieten funktionierende Ausgangspunkte&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Strukturierte Produktdaten optimieren&lt;/strong&gt; – Schema.org, JSON-LD und maschinenlesbare Kataloge sind die Grundlage&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Adobe Commerce Optimizer imf Auge behalten&lt;/strong&gt; – als potenzieller Weg zu Agent-fähigen Storefronts&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Shopifys Agentic Plan beobachten&lt;/strong&gt; – Shopify ist hier vorne und sollte immer im Blick sein. Das gilt auch dann, wenn man selbst nicht auf Shopify setzt.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Die nächsten 12 Monate werden von &lt;em&gt;Low-Consideration-Käufen&lt;/em&gt; dominiert sein – Nachbestellungen, Standardprodukte, Commodity-Elektronik. Die wirkliche Disruption im High-Engagement-Commerce kommt später, aber langsamer als die Keynote-Slides vermuten lassen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;API-First ist kein Nice-to-have mehr, sondern existenzkritisch.&lt;/strong&gt; Wer heute maschinenlesbare, gut dokumentierte APIs betreibt, wird morgen von KI-Agenten gefunden. Wer sich ausschließlich auf menschliche Browser-Interaktion verlässt, wird zunehmend unsichtbar.&lt;/p&gt;
&lt;h2&gt;Weiterführende Artikel&lt;/h2&gt;
&lt;p&gt;Das Thema ist breit – hier ein paar Beiträge von direkten Kollegen von mir, die ich empfehle um einen Überblick zu bekommen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;valantic:&lt;/strong&gt; &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-interview/&quot;&gt;Agentic Commerce – Interview und Einordnung&lt;/a&gt; – Was Agentic Commerce wirklich bedeutet und wo wir heute stehen&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;valantic:&lt;/strong&gt; &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-protocol/&quot;&gt;Das Agentic Commerce Protocol im Detail&lt;/a&gt; – Technischer Deep-Dive zu ACP und UCP&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;valantic:&lt;/strong&gt; &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-payment-service-provider/&quot;&gt;Agentic Commerce und Payment Service Provider&lt;/a&gt; – Was der Wandel für PSPs und Zahlungsinfrastruktur bedeutet&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;valantic:&lt;/strong&gt; &lt;a href=&quot;https://www.valantic.com/de/blog/agentic-commerce-webshop-strategie/&quot;&gt;Brauchen wir noch eigene Webshops?&lt;/a&gt; – Strategische Einordnung der Rolle des eigenen Shops im Zeitalter von KI-Agenten&lt;/li&gt;
&lt;/ul&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Stabil vs. Volatil: Wann klassische Automatisierung die bessere Wahl ist – und wann nicht</title>
        <link href="https://muench.dev/post/2026-04-stabil-vs-volatil-wann-klassische-automatisierung-die-bessere-wahl-ist-und-wann-nicht"/>
        <id>https://muench.dev/post/2026-04-stabil-vs-volatil-wann-klassische-automatisierung-die-bessere-wahl-ist-und-wann-nicht</id>
        <published>2026-04-07T07:00:00+00:00</published>
        <updated>2026-04-07T10:45:14+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Wer mich kennt, weiß: Ich liebe Automatisierung, die einfach funktioniert. Um ein Prinzip zu verdeutlichen, das mir gerade durch den Kopf geht, habe ich ein kleines Gedankenexperiment in n8n aufgebaut. Es ist ein fiktives Szenario, das aber ein reales Problem moderner Workflows auf den Punkt bringt. Ich habe zwei parallele Wege konstruiert, um nützliche Daten zu generieren.&lt;/p&gt;
&lt;p&gt;Auf der einen Seite: Ein simpler Code-Node – mein &amp;quot;Fels in der Brandung&amp;quot;. Er tut exakt das, was er soll, jedes Mal gleich, nahezu kostenlos. Auf der anderen Seite: Ein AI-Agent, befeuert durch OpenRouter. Das &amp;quot;kreative Chaos&amp;quot;, das Lösungen findet, die man nicht hart codieren kann, aber eben auch eine gewisse Unberechenbarkeit mitbringt.&lt;/p&gt;
&lt;p&gt;Mir kamen dann die Begriffe &lt;strong&gt;Stabil&lt;/strong&gt; oben in Grün und &lt;strong&gt;Volatil&lt;/strong&gt; unten in Gelb in den Sinn.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/n8n-automatisierung-vs-ki-2026-04-04.png&quot; alt=&quot;n8n Workflow: Stabil vs. Volatil – zwei Automatisierungswege im Vergleich&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Zwei fiktive Wege in einem n8n Workflow&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Das ist keine Wertung. Es ist eine Kategorisierung. Und genau darum geht es mir in diesem Post: Wann greife ich zu welchem Werkzeug – und warum?&lt;/p&gt;
&lt;h2&gt;Was &amp;quot;stabil&amp;quot; bedeutet&lt;/h2&gt;
&lt;p&gt;Klassische Automatisierung – also regelbasierte Systeme, Skripte, Code-Nodes, Regex – arbeitet &lt;strong&gt;deterministisch&lt;/strong&gt;. Gleiche Eingabe, gleiches Ergebnis. Immer. Das klingt langweilig, ist aber in vielen Kontexten genau das, was ich brauche.&lt;/p&gt;
&lt;p&gt;Nehmen wir ein konkretes Beispiel aus der Forschung: Bei der Extraktion von &lt;a href=&quot;https://radiopaedia.org/articles/breast-imaging-reporting-and-data-system-bi-rads-2&quot;&gt;BI-RADS-Scores&lt;/a&gt; aus radiologischen Berichten (Röntgenbilder) wurde Regex direkt mit LLMs verglichen &lt;a href=&quot;#ref-1&quot;&gt;[1]&lt;/a&gt;. Die Genauigkeit? Nahezu identisch. Der Unterschied: Regex war &lt;strong&gt;28.120-mal schneller&lt;/strong&gt;. Nicht ein bisschen schneller. 28.000-mal. Das ist kein akademisches Detail – das ist ein Architektur-Argument.&lt;/p&gt;
&lt;p&gt;Stabile Automatisierung ist auch aus Sicht der Betriebskosten attraktiv. Ein Code-Node in n8n kostet mich nichts extra. Ein LLM-Aufruf schon. Und bei jedem Zyklus wieder. Wer Workflows mit hohem Durchsatz betreibt, merkt das am Ende des Monats.&lt;/p&gt;
&lt;p&gt;Was klassische Automatisierung braucht: &lt;strong&gt;saubere, strukturierte Daten&lt;/strong&gt; und &lt;strong&gt;klar definierte Regeln&lt;/strong&gt;. Wenn ich weiß, was rein geht und was raus kommen soll, ist ein Code-Node die überlegene Wahl. Keine Überraschungen, keine Halluzinationen, kein Token-Verbrauch.&lt;/p&gt;
&lt;h2&gt;Was &amp;quot;volatil&amp;quot; bedeutet – und warum das kein Fehler ist&lt;/h2&gt;
&lt;p&gt;KI ist &lt;em&gt;nicht instabil&lt;/em&gt;. KI ist in einer gewissen Weise &lt;strong&gt;kreativ&lt;/strong&gt; (KI im Sinne von Generative KI). Das ist ein wichtiger Unterschied.&lt;/p&gt;
&lt;p&gt;Wenn ich einem AI Agent eine Aufgabe gebe, bekomme ich nicht zwingend das identische Ergebnis bei identischer Eingabe. Das klingt nach Nachteil – ist aber oft genau das, was ich brauche. Nämlich dann, wenn:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;die Eingabedaten &lt;strong&gt;unstrukturiert&lt;/strong&gt; sind (Freitexte, E-Mails, PDFs ohne Schema)&lt;/li&gt;
&lt;li&gt;ich &lt;strong&gt;keine vollständigen Regeln&lt;/strong&gt; definieren kann, weil die Varianz zu groß ist&lt;/li&gt;
&lt;li&gt;ich &lt;strong&gt;Kontext und Intention&lt;/strong&gt; verstehen muss, nicht nur Muster matchen&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ein Beispiel: Ich möchte eingehende Support-Anfragen automatisch kategorisieren und priorisieren. Kein Regex der Welt kommt damit klar, wenn Kunden auf zwölf verschiedene Arten schreiben, dass ihr Shop-Login nicht funktioniert. Ein LLM versteht das – auch in holprigem Deutsch, mit Rechtschreibfehlern und ohne klare Struktur.&lt;/p&gt;
&lt;p&gt;Das ist die Stärke der volatilen Seite. Kein Regelbuch nötig. Dafür: Laufzeitkosten, potenziell variierende Ergebnisse und – wichtig – höherer Ressourcenverbrauch.&lt;/p&gt;
&lt;h2&gt;Das Demokratisierungsproblem&lt;/h2&gt;
&lt;p&gt;Hier wird es interessant – und ehrlich gesagt auch ein bisschen heikel.&lt;/p&gt;
&lt;p&gt;KI-Tools haben die Automatisierung &lt;strong&gt;demokratisiert&lt;/strong&gt;. Wer früher einen Entwickler brauchte, um einen Workflow zu bauen, kann heute in n8n einen AI Agent hinwerfen, einen Prompt schreiben und loslegen. Das ist großartig. Im Prinzip.&lt;/p&gt;
&lt;p&gt;In der Praxis sehe ich aber immer häufiger, dass Nicht-Techniker – und leider auch manche Dienstleister – &lt;strong&gt;AI Agents einsetzen, wo ein einfacher Code-Node die bessere Lösung wäre&lt;/strong&gt;. Nicht aus Böswilligkeit, sondern weil:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Der AI Agent &amp;quot;einfach funktioniert&amp;quot; – zumindest beim ersten Test&lt;/li&gt;
&lt;li&gt;Die Kosten und Konsequenzen erst später sichtbar werden&lt;/li&gt;
&lt;li&gt;Das Verständnis fehlt, was unter der Haube passiert&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Konkret: Wer eine Bestellbestätigung per E-Mail versendet und dafür einen LLM-Aufruf macht, weil &amp;quot;das KI kann&amp;quot;, zahlt sinnlose Token-Kosten für eine Aufgabe, die ein Template mit drei Variablen in Millisekunden löst. Sicher ist das nicht zwingend teuer – aber es skaliert schlecht. Und es ist fehleranfälliger: Was, wenn das Modell mal kreativ wird und den Inhalt der E-Mail leicht variiert?&lt;/p&gt;
&lt;p&gt;Noch kritischer wird es bei &lt;strong&gt;sicherheitsrelevanten Prozessen&lt;/strong&gt;. KI-generierter Output ist kein deterministischer Output. Wer das in Berechtigungsprüfungen einbaut, ohne das zu verstehen, baut sich ein Problem auf Vorrat.&lt;/p&gt;
&lt;p&gt;Schon im Jahr 2020 haben Kollegen von mir bei einer Studie in Deutschland große Defizite bei Expertise zu KI, Prozessoptimierung und Automatisierung &lt;a href=&quot;#ref-2&quot;&gt;[2]&lt;/a&gt; festgestellt. Ob wir jetzt in 2026 viel besser darstehen?&lt;/p&gt;
&lt;h2&gt;Ressourcen, Kosten, Geschwindigkeit&lt;/h2&gt;
&lt;p&gt;Ein paar Zahlen, die ich im Hinterkopf behalte:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ein einfacher Code-Node: &lt;strong&gt;nahezu keine Laufzeitkosten&lt;/strong&gt;, Ausführung in Millisekunden&lt;/li&gt;
&lt;li&gt;Ein LLM-Aufruf via API: Token-Kosten, die sich bei hohem Durchsatz summieren – und das nicht linear, sondern kumulativ, weil bei Multi-Turn-Konversationen der gesamte Verlauf mitbezahlt wird&lt;/li&gt;
&lt;li&gt;Reasoning-Modelle (die mit explizitem &amp;quot;Thinking&amp;quot;): bis zu &lt;strong&gt;50-facher CO₂-Ausstoß&lt;/strong&gt; gegenüber kompakten Modellen – für oft marginale Genauigkeitsgewinne &lt;a href=&quot;#ref-3&quot;&gt;[3]&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Das bedeutet nicht, KI zu vermeiden. Es bedeutet, &lt;strong&gt;bewusst zu wählen&lt;/strong&gt;. Brauche ich wirklich ein Reasoning-Modell für das Taggen von Blog-Posts? Nein. Reicht ein kleineres, schnelles Modell für die Sentiment-Klassifikation von Kundenbewertungen? Ja, in den meisten Fällen.&lt;/p&gt;
&lt;p&gt;In meinem privaten n8n habe ich die Metriken immer im Blick.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/grafana-dashboard-used-ai-models-in-my-n8n.png&quot; alt=&quot;n8n Metriken&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Dashboard in Grafana&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Die meisten meiner n8n Prozesse sind immer noch klassisch ohne KI oder nur an gewissen Stellen mit KI ergänzt. Es gibt aber auch Workflows die nur auf KI basieren.&lt;/p&gt;
&lt;h2&gt;Wann ich zur KI muss&lt;/h2&gt;
&lt;p&gt;Es gibt Aufgaben, bei denen ich mit klassischer Automatisierung schlicht nicht weiterkomme:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Unstrukturierte Eingaben verstehen&lt;/strong&gt; – Freitexte, OCR-Ergebnisse, gescannte Dokumente&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Inhaltliche Bewertung&lt;/strong&gt; – Ist diese Produktbeschreibung vollständig? Klingt dieser Text professionell?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kontextabhängige Entscheidungen&lt;/strong&gt; – Was ist die passende Antwort auf diese Kundenfrage, abhängig von Bestellhistorie und aktuellem Kontext?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kreative Aufgaben&lt;/strong&gt; – Texte generieren, variieren, übersetzen, zusammenfassen&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Für alles davon gibt es keine Regex. Kein if-else-Baum wächst hoch genug. Hier ist KI nicht die bequeme Option – sie ist die einzig sinnvolle.&lt;/p&gt;
&lt;h2&gt;Der hybride Weg: Determinismus als Leitplanke&lt;/h2&gt;
&lt;p&gt;Meine persönliche Architektur-Präferenz sieht so aus: &lt;strong&gt;deterministischer Rahmen, KI dort wo nötig&lt;/strong&gt; &lt;a href=&quot;#ref-4&quot;&gt;[4]&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;In n8n bedeutet das konkret: Ich prüfe zuerst, ob ich ein Problem regelbasiert lösen kann. Wenn ja, Code-Node. Wenn nein, AI Agent – aber mit klaren Leitplanken: definierten Eingabeformaten, validierten Ausgaben, und einem deterministischen Weiterverarbeitungsschritt danach.&lt;/p&gt;
&lt;p&gt;Das Diagramm am Anfang dieses Posts zeigt genau das: Beide Wege laufen in denselben Output. Ich entscheide pro Aufgabe, welcher Pfad sinnvoller ist. Das ist keine Entweder-oder-Frage. Es ist eine Designentscheidung.&lt;/p&gt;
&lt;h2&gt;Wo steckt bei mir überall KI drin?&lt;/h2&gt;
&lt;p&gt;Wichtig finde ich auch, dass man seine KI-Prozesse im Blick hat. Auch diese benötigen eine Wartung und müssen immer mal wieder angepasst werden. Gerade, wenn neue Modelle auf den Markt kommen.&lt;/p&gt;
&lt;p&gt;In meinen Fall habe ich verschiedene Dashboards in meinen Grafana erstellt. Unter anderem eines, dass mir eine Übersicht der in den n8n Workflows genutzten Modelle und Provider bietet.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/n8n-prod-statistics-2026-04-04.png&quot; alt=&quot;Grafana Dashboard - Genutzte Modelle &quot; /&gt;&lt;br /&gt;
&lt;em&gt;Metriken in n8n&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Gelöst habe ich das über einen n8n Workflow der mir täglich alle anderen Workflows analyisiert und die Metadaten dann in meiner Postgres Datenbank abgelegt.&lt;/p&gt;
&lt;p&gt;Eine weiterer wichtiger Teil ist, dass man seine KI Modelle auch mit Testdaten testet. Dazu gibt es aber bestimmt mal einen eigenen Blog-Post von mir.&lt;/p&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;KI ist kein Allheilmittel – und klassische Automatisierung ist kein Relikt. Beides hat seinen Platz. Die Kunst liegt darin zu erkennen, &lt;strong&gt;welches Werkzeug für welche Aufgabe geeignet ist&lt;/strong&gt; &lt;a href=&quot;#ref-5&quot;&gt;[5]&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Was mich bei der aktuellen Entwicklung beschäftigt: Immer mehr Menschen automatisieren, ohne die Implikationen zu verstehen. Das ist erst mal gut – Automatisierung ist wichtig. Aber die Wahl des falschen Werkzeugs produziert Systeme, die teurer, langsamer, fehleranfälliger und schwerer wartbar sind als nötig.&lt;/p&gt;
&lt;p&gt;Meine Faustregel: Wenn ich das Problem vollständig beschreiben kann, brauche ich keine KI. Wenn nicht – dann schon.&lt;/p&gt;
&lt;hr /&gt;
&lt;h2&gt;Literatur&lt;/h2&gt;
&lt;p&gt;&lt;a id=&quot;ref-1&quot;&gt;&lt;/a&gt;[1] Lacoste et al. (2025): &lt;em&gt;A Comparative Performance Analysis of Regular Expressions and an LLM-Based Approach to Extract the BI-RADS Score from Radiological Reports.&lt;/em&gt; medRxiv.&lt;br /&gt;
&lt;a href=&quot;https://www.medrxiv.org/content/10.1101/2025.06.01.25328636v1.full-text&quot;&gt;https://www.medrxiv.org/content/10.1101/2025.06.01.25328636v1.full-text&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-2&quot;&gt;&lt;/a&gt;[2] valantic (2020): &lt;em&gt;Exklusive valantic-Studie: Große Defizite bei Expertise zu KI, Prozessoptimierung und Automatisierung&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.valantic.com/de/presse/exklusive-valantic-studie-mit-luenendonk/&quot;&gt;https://www.valantic.com/de/presse/exklusive-valantic-studie-mit-luenendonk/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-3&quot;&gt;&lt;/a&gt;[3] ScienceDaily (2025): &lt;em&gt;Thinking AI models emit 50x more CO2 — and often for nothing.&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.sciencedaily.com/releases/2025/06/250619035520.htm&quot;&gt;https://www.sciencedaily.com/releases/2025/06/250619035520.htm&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-4&quot;&gt;&lt;/a&gt;[4] Elementum AI (2025): &lt;em&gt;Deterministic vs. Probabilistic AI: Enterprise Workflow Guide.&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.elementum.ai/blog/deterministic-vs-probabilistic-ai&quot;&gt;https://www.elementum.ai/blog/deterministic-vs-probabilistic-ai&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-5&quot;&gt;&lt;/a&gt;[5] ECI Software Solutions: &lt;em&gt;AI vs. Automation: Why the Difference Matters for SMB Growth.&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.ecisolutions.com/blog/ai-vs-automation-smb-difference/&quot;&gt;https://www.ecisolutions.com/blog/ai-vs-automation-smb-difference/&lt;/a&gt;&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Claude Desktop unter Linux</title>
        <link href="https://muench.dev/post/2026-03-claude-desktop-unter-linux"/>
        <id>https://muench.dev/post/2026-03-claude-desktop-unter-linux</id>
        <published>2026-03-31T16:12:00+00:00</published>
        <updated>2026-04-07T16:22:15+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Ich arbeite seit Jahren auf Fedora. Linux ist für mich kein Experiment, sondern Alltag. Umso mehr hat es mich gestört, dass Anthropic Claude Desktop offiziell nur für macOS und Windows anbietet. Für Linux: Fehlanzeige.&lt;/p&gt;
&lt;p&gt;Mein Kollege bei valantic, &lt;a href=&quot;https://github.com/patrickjaja&quot;&gt;&lt;strong&gt;Patrick Schönfeld&lt;/strong&gt;&lt;/a&gt;, hat das nicht einfach hingenommen. Er ist KI-Experte, Open-Source-Enthusiast – und jemand, der lieber Probleme löst als darüber redet.&lt;/p&gt;
&lt;p&gt;Das Ergebnis: &lt;a href=&quot;https://github.com/patrickjaja/claude-desktop-bin&quot;&gt;claude-desktop-bin&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-03/screenshot_claude_desktop_linux_20260331_200608-1.png&quot; alt=&quot;Claude Desktop unter Linux&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Hier ein Screenshot von meinem Fedora Desktop&lt;/em&gt;&lt;/p&gt;
&lt;h2&gt;Installation: Für jede Distribution&lt;/h2&gt;
&lt;p&gt;Patrick hat wirklich alle großen Distributionen bedacht. Kein halbgarer Single-Distro-Port.&lt;/p&gt;
&lt;h3&gt;Arch Linux / Manjaro&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;yay -S claude-desktop-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Updates kommen automatisch über den AUR-Helper – nichts weiter zu tun.&lt;/p&gt;
&lt;h3&gt;Debian / Ubuntu&lt;/h3&gt;
&lt;p&gt;Der empfohlene Weg über das APT-Repository bringt automatische Updates mit:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -fsSL https://patrickjaja.github.io/claude-desktop-bin/install.sh | sudo bash
sudo apt install claude-desktop-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Wer kein fremdes Install-Script ausführen möchte – das ist ein vollkommen legitimer Standpunkt – greift zum &lt;code&gt;.deb&lt;/code&gt; direkt von den Releases:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;wget https://github.com/patrickjaja/claude-desktop-bin/releases/latest/download/claude-desktop-bin_1.1.5749-1_amd64.deb
sudo dpkg -i claude-desktop-bin_*_amd64.deb
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;Fedora / RHEL&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;wget https://github.com/patrickjaja/claude-desktop-bin/releases/latest/download/claude-desktop-bin-1.1.4088-1.x86_64.rpm
sudo dnf install ./claude-desktop-bin-*-1.x86_64.rpm
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;NixOS&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Ausprobieren ohne Installation&lt;/span&gt;
nix run github:patrickjaja/claude-desktop-bin

&lt;span class=&quot;hljs-comment&quot;&gt;# Dauerhaft ins Profil&lt;/span&gt;
nix profile install github:patrickjaja/claude-desktop-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Wer es direkt in die Systemkonfiguration übernehmen will:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-nix hljs nix&quot; data-lang=&quot;nix&quot;&gt;{
  inputs.claude-desktop.&lt;span class=&quot;hljs-attr&quot;&gt;url&lt;/span&gt; = &lt;span class=&quot;hljs-string&quot;&gt;&quot;github:patrickjaja/claude-desktop-bin&quot;&lt;/span&gt;;

  environment.&lt;span class=&quot;hljs-attr&quot;&gt;systemPackages&lt;/span&gt; = [
    inputs.claude-desktop.packages.x86_64-linux.default
  ];
}
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;AppImage (alle anderen)&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;wget https://github.com/patrickjaja/claude-desktop-bin/releases/latest/download/Claude_Desktop-1.1.5749-x86_64.AppImage
chmod +x Claude_Desktop-*-x86_64.AppImage
./Claude_Desktop-*-x86_64.AppImage
&lt;/code&gt;&lt;/pre&gt;
&lt;h2&gt;Cowork unter Linux&lt;/h2&gt;
&lt;p&gt;Cowork ist Anthropics agentic Workspace-Feature – Dateioperationen, Desktop-Automatisierung, Task-Management direkt vom Desktop aus. Auch hier: offiziell kein Linux-Support.&lt;/p&gt;
&lt;p&gt;Patrick hat den Windows Service &lt;strong&gt;reverse-engineered&lt;/strong&gt; und unter Linux lauffähig gemacht. Das Projekt: &lt;a href=&quot;https://github.com/patrickjaja/claude-cowork-service&quot;&gt;claude-cowork-service&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Der Service ist optional. Claude Desktop funktioniert auch ohne Cowork. Wer ihn möchte:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Schnellinstallation, jede Distribution&lt;/span&gt;
curl -fsSL https://raw.githubusercontent.com/patrickjaja/claude-cowork-service/main/scripts/install.sh | bash

&lt;span class=&quot;hljs-comment&quot;&gt;# Arch Linux per AUR&lt;/span&gt;
yay -S claude-cowork-service
systemctl --user &lt;span class=&quot;hljs-built_in&quot;&gt;enable&lt;/span&gt; --now claude-cowork
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Voraussetzung ist die &lt;strong&gt;Claude Code CLI&lt;/strong&gt; – sie muss installiert und im Pfad erreichbar sein. Die Pfade &lt;code&gt;/usr/bin/claude&lt;/code&gt;, &lt;code&gt;~/.local/bin/claude&lt;/code&gt; und &lt;code&gt;/usr/local/bin/claude&lt;/code&gt; werden automatisch erkannt.&lt;/p&gt;
&lt;h2&gt;Was dahintersteckt&lt;/h2&gt;
&lt;p&gt;Das ist kein Quick-Port. Das Paket enthält eine ganze Reihe gezielter Patches, die aus Claude Desktop – einer Electron-App, primär für macOS entwickelt – eine funktionale Linux-Anwendung machen. Tray-Icon-Integration, DBus-Handling, MCP-Server-Support, Computer Use via &lt;code&gt;xdotool&lt;/code&gt; und &lt;code&gt;scrot&lt;/code&gt; – alles dabei.&lt;/p&gt;
&lt;p&gt;Ein automatisierter CI-Job prüft täglich auf neue Claude-Desktop-Versionen, validiert alle Patches in Docker und stellt sicher, dass nur funktionierende Builds ins AUR kommen. Das ist solide Arbeit.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Ein Hinweis für Wayland-Nutzer:&lt;/strong&gt; Der globale Shortcut (&lt;code&gt;Ctrl+Alt+Space&lt;/code&gt;) funktioniert nur unter X11. Wer auf einem Wayland-Compositor unterwegs ist, startet Claude Desktop so:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;claude-desktop --ozone-platform=x11
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Das lässt sich auch dauerhaft in der &lt;code&gt;.desktop&lt;/code&gt;-Datei eintragen.&lt;/p&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Es ist inzwischen ein bekanntes Muster: Hersteller ignoriert Linux, Community oder engagierte Entwickler wie mein Kollege Patrick übernehmen.&lt;/p&gt;
&lt;p&gt;Danke, Patrick – für die Arbeit, die da drin steckt. Das Ergebnis ist wirklich brauchbar.&lt;/p&gt;
&lt;p&gt;Habt ihr Claude Desktop unter Linux schon ausprobiert? Auf welcher Distribution läuft es bei euch?&lt;/p&gt;
&lt;h2&gt;Update 7. April 2026&lt;/h2&gt;
&lt;p&gt;Ich habe den Text nach Feedbacl von Patrick nochmal angepasst. Bei RPMs und AppImage hatte ich geschrieben, dass es keine automatischen Update gibt. Das war nicht korrekt. Patrick hat auch für diese Installationen ein automatisches Update bereitgestellt.&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Rückblick: Magento Stammtisch Stuttgart – Remote dabei mit mage-remote-run</title>
        <link href="https://muench.dev/post/2026-03-rueckblick-magento-stammtisch-stuttgart-remote-dabei-mit-mage-remote-run"/>
        <id>https://muench.dev/post/2026-03-rueckblick-magento-stammtisch-stuttgart-remote-dabei-mit-mage-remote-run</id>
        <published>2026-03-27T07:00:00+00:00</published>
        <updated>2026-03-28T16:29:58+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Am 25. März 2026 fand der Magento Stammtisch Stuttgart statt – und ich war dabei. Nicht vor Ort, wie ich es mir gewünscht hätte, sondern von zuhause aus. Eine Erkältung hat mir einen Strich durch die Reisepläne gemacht. Zum Glück war eine Remote-Teilnahme möglich, und so konnte ich trotzdem meinen Beitrag über &lt;strong&gt;mage-remote-run&lt;/strong&gt; halten ... ganz schön viel &amp;quot;remote&amp;quot; :-)&lt;/p&gt;
&lt;p&gt;Persönlich vor Ort zu sein hat natürlich einen anderen Charakter. Die spontanen Gespräche am Rande, das gemeinsame Abendessen, das Netzwerken beim Getränk in der Hand – das lässt sich nicht durch einen Video-Call ersetzen. Aber die Community hat das unkompliziert möglich gemacht, und dafür bin ich dankbar.&lt;/p&gt;
&lt;h2&gt;Mein Beitrag: mage-remote-run in der Praxis&lt;/h2&gt;
&lt;p&gt;Ich habe &lt;a href=&quot;https://mage-remote-run.muench.dev&quot;&gt;&lt;strong&gt;mage-remote-run&lt;/strong&gt;&lt;/a&gt; vorgestellt – mein Tool für die Remote-Verwaltung von Magento-Instanzen ohne SSH-Zugriff. Gerade in Cloud-nativen Umgebungen wie Adobe Commerce as a Cloud Service oder abgesicherten Kubernetes-Clustern stößt man schnell an Grenzen, wenn man gewohnte Shell-Werkzeuge einsetzen will. mage-remote-run setzt deshalb konsequent auf einen &lt;strong&gt;API-first&lt;/strong&gt;-Ansatz und kommuniziert über HTTPS mit dem Shop.&lt;/p&gt;
&lt;p&gt;Die Vorstellung beim Stammtisch gibt es als Video – ich verlinke es hier, sobald es verfügbar ist.&lt;/p&gt;
&lt;p&gt;Neu war das Plugin-System in mage-remote-run, dass ich erstmals beim Stammtisch vorstellen konnte.&lt;/p&gt;
&lt;h2&gt;MageForge: Ein Build-Tool für Frontend-Entwickler&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Mathias Elle&lt;/strong&gt;, Magento- und Hyvä-Frontend-Experte, hat zusammen mit Thomas Hauschild an &lt;a href=&quot;https://github.com/OpenForgeProject/mageforge&quot;&gt;&lt;strong&gt;MageForge&lt;/strong&gt;&lt;/a&gt; gearbeitet und beim Stammtisch vorgestellt, was dahintersteckt. MageForge ist ein Tool, das speziell auf die Bedürfnisse von Frontend-Entwicklern im Magento-Ökosystem ausgelegt ist – mit dem Fokus auf Build-Prozesse.&lt;/p&gt;
&lt;p&gt;Wer schon mal mit Hyvä gearbeitet hat, weiß, dass der Frontend-Stack dort deutlich moderner ist als im klassischen Magento. Genau da setzt MageForge an: Es soll die Build-Workflows vereinfachen und beschleunigen, ohne dass man tief in die Konfigurationsdetails einsteigen muss. Ich bin gespannt, wie sich das Tool weiterentwickelt – das ist genau die Art von pragmatischer Tooling-Arbeit, die der Community gut tut.&lt;/p&gt;
&lt;p&gt;Auch in einer CI/CD Pipeline oder beim Reparieren von kaputten Frontend-Setups kann das Tool gute Dienste leisten.&lt;/p&gt;
&lt;p&gt;Beeindrucken ist auch, dass es auf dem höchsten PhpStan-Level getestet wurde.&lt;br /&gt;
Weil es so gut ist, wird es in der nächsten n98-magerun2 Version ein neues Kommando &lt;code&gt;mageforge:install&lt;/code&gt; geben damit ihr es schnell in euer Magento System installieren könnt.&lt;/p&gt;
&lt;h2&gt;Claude-AI-Benchmarks: Wie sehr machen Regeln den Unterschied?&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Anton Gudkov&lt;/strong&gt;, Magento-zertifizierter Entwickler, hat sich mit einem Thema beschäftigt, das mich ebenfalls intensiv begleitet: dem Einsatz von &lt;strong&gt;Claude-AI-Modellen&lt;/strong&gt; in der Entwicklung. Kudos auch dafür, dass er beim Stammtisch seinen ersten Vortrag hielt. Sein Fokus lag auf einem konkreten und spannenden Aspekt – dem Benchmark unterschiedlicher Einstellungen und Regelwerke.&lt;/p&gt;
&lt;p&gt;Die Kernfrage: Wie stark beeinflussen die Konfiguration und die definierten Regeln das Ergebnis, das ein Modell wie Claude liefert? Das ist etwas, was in der Praxis oft unterschätzt wird. Man gibt dem Modell einen Prompt, bekommt eine Antwort – und denkt wenig darüber nach, was passiert, wenn man die Rahmenbedingungen systematisch variiert. Anton hat genau das gemacht und die Ergebnisse verglichen.&lt;/p&gt;
&lt;p&gt;Mein Fazit (aus der Ferne): Das ist wertvolle Arbeit. Gerade wenn man KI-Modelle in bestehende Entwicklungsprozesse integriert, lohnt es sich, diese Stellschrauben zu verstehen – und nicht einfach mit den Standardeinstellungen zu leben.&lt;/p&gt;
&lt;p&gt;Ich hoffe, beim nächsten Mal persönlich dabei zu sein. Stuttgart wäre es wert gewesen. Danke an Phoenix Media für die wie immer tolle Orga.&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">mage-remote-run</title>
        <link href="https://muench.dev/post/2026-02-mage-remote-run"/>
        <id>https://muench.dev/post/2026-02-mage-remote-run</id>
        <published>2026-02-07T18:52:00+00:00</published>
        <updated>2026-02-07T22:43:05+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Wer in den letzten 15 Jahren im Magento-Ökosystem unterwegs war, kenn mich eventuell durch das Tool &lt;strong&gt;n98-magerun&lt;/strong&gt;. Es ist das „Schweizer Taschenmesser“ der Magento Entwickler und Administratoren der direkt auf dem Server oder in seiner lokalen Umgebung arbeitet. Aber die Welt des E-Commerce-Hostings hat sich massiv weiterentwickelt.&lt;/p&gt;
&lt;p&gt;Mit dem Aufstieg von &lt;strong&gt;Cloud-native&lt;/strong&gt; Architekturen stehen wir heute oft vor einer ganz neuen Herausforderung: Wir stehen vor einer verschlossenen Tür.&lt;/p&gt;
&lt;h2&gt;Die Absicht: Wenn die Shell zur Sackgasse wird&lt;/h2&gt;
&lt;p&gt;Mein Ziel mit n98-magerun2 war es immer, Entwicklern maximale Effizienz auf der Konsole zu ermöglichen. Doch in modernen Umgebungen wie &lt;strong&gt;Adobe Commerce as a Cloud Service (SaaS)&lt;/strong&gt; oder hochgradig abgesicherten &lt;strong&gt;Kubernetes-Clustern&lt;/strong&gt; gibt es oft schlichtweg keinen SSH-Zugriff mehr. Security-Policies und Compliance-Vorgaben verhindern den direkten Weg auf den Server oder die Datenbank.&lt;/p&gt;
&lt;p&gt;Hier entstand die Idee für &lt;strong&gt;mage-remote-run&lt;/strong&gt;. Die Absicht war nicht, n98-magerun2 zu ersetzen – für die lokale Arbeit mit Tools wie DDEV bleibt es unersetzlich da es direkt im System arbeiten kann. Die Vision war vielmehr, ein Werkzeug zu schaffen, das auch per Remote funktioniert. Es sollte mit allen meinen Magento-Instanzen arbeiten. Es sollte ohne große Einrichtung funktionieren.&lt;/p&gt;
&lt;h2&gt;Die Idee: API-first statt Shell-first&lt;/h2&gt;
&lt;p&gt;Mage Remote Run verfolgt einen radikalen &lt;strong&gt;API-first&lt;/strong&gt; Ansatz. Anstatt zu versuchen, Code innerhalb der Infrastruktur auszuführen, kommuniziert das Tool von außen über standardisierte HTTPS- und REST-Schnittstellen mit dem Shop.&lt;/p&gt;
&lt;p&gt;Das Kernkonzept basiert auf drei Säulen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Remote-First Management:&lt;/strong&gt; Volle Kontrolle über Produkte, Bestellungen und Systemkonfigurationen, ganz ohne Shell-Zugriff.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Plattform-Agnostisch:&lt;/strong&gt; Es ist egal, ob die Instanz in der Adobe Commerce Cloud als SaaS oder PaaS, bei einem spezialisierten Hoster mit Magento Open Source oder als &lt;strong&gt;Mage-OS&lt;/strong&gt; Instanz läuft.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Moderne Distribution:&lt;/strong&gt; Als Node.js-basiertes Tool ist es entkoppelt von der lokalen PHP-Umgebung und lässt sich nahtlos in moderne Workflows integrieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Mehrer Instanzen verwalten&lt;/strong&gt;: Es lassen sich Connections zu mehreren Instanzen konfigurieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-02/mage-remote-run-2025-10-05-1029.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;h2&gt;Hat das nicht einen Haken?&lt;/h2&gt;
&lt;p&gt;Das Konzept hat nur einen Haken. Es ist auf die Möglichkeiten der API beschränkt. Bietet die API eine Funktion nicht an, dann kann ich diese auch nicht aufrufen.&lt;br /&gt;
Mit dem Aufkommen einer reinen SaaS Lösung wie Adobe Commerce as a Cloud Service ist es aber per se nicht mehr möglich am Backend-Code Änderungen direkt vorzunehmen. Daher muss Adobe hier selbst schauen, dass man möglichst viele Funktionen per API abdeckt.&lt;/p&gt;
&lt;p&gt;Bei der PaaS Variante oder bei On-Premises Systemen kann die API natürlich auch weiterhin erweitert werden. Spezielle selbst angelegte Endpunkte kennt das Tool nicht unebdingt.&lt;br /&gt;
Für diesen Fall habe ich ein generisches &amp;quot;rest&amp;quot; Kommando angelegt über das man sehr einfach beliebige Endpunkte mit der aktuell konfigurierten Verbindung ansteuern kann.&lt;/p&gt;
&lt;h2&gt;Premiere beim Adobe Commerce APAC User Group Event&lt;/h2&gt;
&lt;p&gt;Ich freue mich besonders, dass ich die Gelegenheit hatte, Mage Remote Run erstmals offiziell im Rahmen der &lt;strong&gt;Adobe Commerce APAC User Group&lt;/strong&gt; am 5. Februar 2026 vorzustellen. Unter dem Titel „Architecting Remote Operations“ konnte ich der Community zeigen, wie wir die Lücke zwischen lokaler Developer Experience und restriktiven Cloud-Umgebungen schließen.&lt;/p&gt;
&lt;p&gt;Das Video der Session mit der kompletten Live-Demo findet ihr hier eingebettet:&lt;/p&gt;
&lt;iframe width=&quot;800&quot; height=&quot;450&quot; src=&quot;https://www.youtube.com/embed/LKzzzF1FR48?feature=oembed&quot; frameborder=&quot;0&quot; allow=&quot;accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share&quot; referrerpolicy=&quot;strict-origin-when-cross-origin&quot; allowfullscreen title=&quot;APAC Virtual Architecting Remote Operations&quot;&gt;&lt;/iframe&gt;
&lt;p&gt;Im Video gehe ich auch auf den einen oder anderen Use-Case ein und zeige auch wie man mit dem Tool Produkte importieren kann oder es in einer GitHub Action verwendet.&lt;/p&gt;
&lt;h2&gt;Ein Blick in die Zukunft: KI und MCP&lt;/h2&gt;
&lt;p&gt;Ein zentraler Bestandteil meiner Vision ist die Vorbereitung auf eine Welt, in der wir Systeme nicht nur über manuelle Befehle steuern. Durch die Unterstützung des &lt;strong&gt;Model Context Protocol (MCP)&lt;/strong&gt; ist Mage Remote Run bereits „AI-Ready“. Es erlaubt KI-Agenten, sicher auf Shop-Daten zuzugreifen und administrative Aufgaben durch natürliche Sprache zu lösen. Generell ist die Funktion aber noch mit Vorsicht zu nutzen. Es gibt bisher auch keine Möglichkeit die Funktion auf rein lesende Kommandos einzuschränken.&lt;/p&gt;
&lt;p&gt;Beispiel:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;mage-remote-run rest V1/products -m GET --page-size 1 --current-page 1 --format json
&lt;/code&gt;&lt;/pre&gt;
&lt;h2&gt;Du willst auch mal testen?&lt;/h2&gt;
&lt;p&gt;Für die Ausführung des Tools wird nur eine einigermaßen neue NodeJS Installation benötigt. Ist diese vorhanden, dann kann man es sehr einfach nutzen.&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;npm install -g mage-remote-run
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Oder Sandboxed:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;npx mage-remote-run
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Eine Dokumentation findet man hier: &lt;a href=&quot;https://mage-remote-run.muench.dev&quot;&gt;https://mage-remote-run.muench.dev&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Viel Spaß beim ausprobieren!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">OpenCode: Kann viel und macht dich unabhängiger</title>
        <link href="https://muench.dev/post/2026-01-opencode-kann-viel-und-macht-dich-unabhaengiger"/>
        <id>https://muench.dev/post/2026-01-opencode-kann-viel-und-macht-dich-unabhaengiger</id>
        <published>2026-01-20T11:05:00+00:00</published>
        <updated>2026-01-22T16:39:47+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;In den letzten Monaten habe ich viel über die Entwicklung von KI-Agenten und die Bedeutung von Standards wie dem &lt;a href=&quot;/post/2025-04-das-model-context-protocol-mcp&quot;&gt;Model Context Protocol (MCP)&lt;/a&gt; geschrieben. Wer mich kennt, weiß, dass ich immer auf der Suche nach Tools bin, die nicht nur mächtig, sondern auch flexibel und offen sind. Nach dem Testen zahlreicher Agenten bin ich bei &lt;strong&gt;OpenCode&lt;/strong&gt; hängen geblieben. Warum? Weil es genau die Unabhängigkeit bietet, die in der aktuellen KI-Landschaft oft fehlt.&lt;/p&gt;
&lt;h2&gt;Warum OpenCode? Freiheit durch Open Source&lt;/h2&gt;
&lt;p&gt;Der Hauptgrund für meinen Wechsel zu OpenCode ist die Philosophie hinter dem Projekt. Das Tool steht unter der &lt;strong&gt;MIT-Lizenz&lt;/strong&gt; &lt;a href=&quot;https://github.com/anomalyco/opencode&quot;&gt;direkt auf GitHub&lt;/a&gt;, was es zu einer echten Open-Source-Alternative in einem Markt voller proprietärer &amp;quot;Black Boxes&amp;quot; macht.&lt;/p&gt;
&lt;p&gt;In einer Zeit, in der man sich schnell an einen einzigen Provider bindet, bietet OpenCode eine beeindruckende Breite an unterstützten Providern. Ob OpenAI Codex, GitHub Copilot oder Google – man ist nicht mehr auf das Wohlwollen eines einzelnen Herstellers angewiesen. Besonders spannend: Man kann mehrere Provider gleichzeitig konfigurieren. Wenn das Quota bei einem Dienst aufgebraucht ist, wechselt man einfach zum nächsten. Auch lokale Instanzen über &lt;strong&gt;Ollama&lt;/strong&gt; lassen sich problemlos einbinden, was ich bereits in meinem &lt;a href=&quot;/post/2024-12-ki-agenten-mit-n8n-erstellen&quot;&gt;n8n-Agenten-Setup&lt;/a&gt; als großen Vorteil für den Datenschutz und die Kostenkontrolle hervorgehoben habe.&lt;/p&gt;
&lt;p&gt;Nicht verschweigen möchte ich aber, dass es zuletzt Probleme bei der Nutzung von Claude-Code gab. Antrophic möchte es nicht mehr sehen, dass man andere CLI Tools als das eigene nutzt.&lt;/p&gt;
&lt;p&gt;Siehe dazu auch: &lt;a href=&quot;https://www.youtube.com/watch?v=CYBbprV1eA0&quot;&gt;YouTube: What's going on with Claude Code and OpenCode?&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;OpenAI nutzte diesen Umstand dann direkt um ausdrücklich hinzuweisen, dass man OpenCode auf jeden Fall toll findet und natürlich unterstützt. Da ist schon ein wenig Politik im Spiel. Es zeigt aber auch, dass man sich um die Unabhängigkeit des eigenen Tool-Stacks auch Gedanken machen sollte.&lt;/p&gt;
&lt;p&gt;Was, wenn auf aus politischen Gründen die Nutzung des einen odere anderen Modells nicht mehr möglich ist? Dann will ich eben nicht meine komplette Umgebung auf ein anderes Tool mit Vendor-Lock umstellen. Genau hier gibt mir OpenCode eine gewisse Sicherheit.&lt;/p&gt;
&lt;h2&gt;Ein Paradies für Entwickler: TUI, LSP, Skills, ...&lt;/h2&gt;
&lt;p&gt;OpenCode ist von Entwicklern für Entwickler gebaut. Das merkt man an jeder Ecke – angefangen bei der schicken &lt;strong&gt;TUI (Terminal User Interface)&lt;/strong&gt;.&lt;/p&gt;
&lt;h3&gt;Die Benutzeroberfläche (TUI)&lt;/h3&gt;
&lt;p&gt;Die TUI bietet alles, was man für einen effizienten Workflow braucht:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Themes &amp;amp; Konfiguration:&lt;/strong&gt; Alles lässt sich bis ins kleinste Detail anpassen und sogar pro Projekt überschreiben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sidebars &amp;amp; Status:&lt;/strong&gt; Wichtige Informationen und der Status des aktuellen Modells sind immer im Blick.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Shortcuts:&lt;/strong&gt; Mit schnellen Tastenkombinationen wechselt man das Modell oder prüft den Status.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Slash-Commands:&lt;/strong&gt; Ähnlich wie in Mattermost lassen sich Aufgaben über Slash-Commands steuern. Dank eines eigenen SDKs kann man sogar eigene Kommandos und Plugins entwickeln.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-01/screenshot_20260120_113412-opencode-tui-welcome-screen.png&quot; alt=&quot;OpenCode TUI Welcome Screen&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Technische Integration&lt;/h3&gt;
&lt;p&gt;Ein KI-Agent ist nur so gut wie sein Verständnis vom Code. OpenCode nutzt &lt;strong&gt;Language Server (LSP)&lt;/strong&gt; und spezifische Formatter der jeweiligen Programmiersprachen, um eine präzise Code-Analyse und -Manipulation zu gewährleisten. Zudem werden &lt;strong&gt;Agent Skills&lt;/strong&gt; unterstützt (via &lt;a href=&quot;https://agentskills.io&quot;&gt;agentskills.io&lt;/a&gt;), um lokal leichtgewichtige Tools zu bauen, ohne direkt einen kompletten MCP-Server aufsetzen zu müssen.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-01/screenshot_20260120_113907-skill.png&quot; alt=&quot;OpenCode skill call&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Aber keine Sorge: MCP wird natürlich ebenfalls voll unterstützt.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-01/screenshot_20260120_114035-mcp-call.png&quot; alt=&quot;MCP in OpenCode&quot; /&gt;&lt;/p&gt;
&lt;h2&gt;Architektur: Flexibilität in jeder Umgebung&lt;/h2&gt;
&lt;p&gt;In meinem Beitrag über &lt;a href=&quot;/post/2025-01-ki-agenten-monolithisch-vs-verteilt&quot;&gt;monolithische vs. verteilte Agenten&lt;/a&gt; habe ich die Vor- und Nachteile verschiedener Strukturen diskutiert. OpenCode schlägt hier eine interessante Brücke:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Sub-Agents:&lt;/strong&gt; Man kann Agenten mit spezialisierten Sub-Agenten erstellen und in der TUI einfach mit der Tab-Taste zwischen ihnen wechseln.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Parallel Sessions:&lt;/strong&gt; Mehrere Aufgaben gleichzeitig bearbeiten? Kein Problem.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Headless &amp;amp; Web Mode:&lt;/strong&gt; Besonders praktisch ist der Headless-Modus für Umgebungen, in denen man auf Datenbanken oder Systeme zugreifen muss, die nicht direkt erreichbar sind. Alternativ lässt sich OpenCode als Webserver starten, um direkt im Browser zu arbeiten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;IDE-Support:&lt;/strong&gt; Wer lieber in seiner gewohnten Umgebung bleibt, findet immer mehr Plugins für gängige IDEs. Auch die Integration in andere Tools wie Maestro oder der Support für ACP sind vorhanden. Ich setze da persönlich mehr auf die CLI.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Installation: In Sekunden startklar&lt;/h2&gt;
&lt;p&gt;Die Installation ist denkbar einfach und unterstützt so ziemlich jeden gängigen Paketmanager. Mein Favorit ist die Installation via NPM, aber es gibt viele Wege zum Ziel:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Über NPM (oder bun/pnpm/yarn)&lt;/span&gt;
npm i -g opencode-ai@latest

&lt;span class=&quot;hljs-comment&quot;&gt;# macOS &amp;amp; Linux (empfohlen via brew)&lt;/span&gt;
brew install anomalyco/tap/opencode

&lt;span class=&quot;hljs-comment&quot;&gt;# Windows (via Scoop oder Choco)&lt;/span&gt;
scoop install extras/opencode
choco install opencode

&lt;span class=&quot;hljs-comment&quot;&gt;# Arch Linux&lt;/span&gt;
paru -S opencode-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Ein kleiner Tipp für den Start: Mit dem Kommando opencode debug lässt sich die aktuelle Konfiguration inklusive MCP-Servern und Skills überprüfen. Das spart enorm viel Zeit bei der Fehlersuche.&lt;/p&gt;
&lt;h2&gt;Mein Fazit (bisher)&lt;/h2&gt;
&lt;p&gt;Die Arbeit mit OpenCode macht einfach Spaß. Es ist aktiv, die Community ist engagiert und die Dokumentation lässt kaum Fragen offen. Es ist das &amp;quot;Schweizer Taschenmesser&amp;quot; für KI-gestütztes Coding, das genau die Flexibilität bietet, die ich mir für meine Infrastruktur wünsche.&lt;/p&gt;
&lt;p&gt;Was haltet ihr von Open-Source-Agenten?&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Tech-Trends 2026: Wenn die KI den Bildschirm verlässt und zum Kollegen wird</title>
        <link href="https://muench.dev/post/2025-12-tech-trends-2026-wenn-die-ki-den-bildschirm-verlaesst-und-zum-kollegen-wird"/>
        <id>https://muench.dev/post/2025-12-tech-trends-2026-wenn-die-ki-den-bildschirm-verlaesst-und-zum-kollegen-wird</id>
        <published>2025-12-14T14:00:00+00:00</published>
        <updated>2025-12-14T15:17:15+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Wenn wir uns die Entwicklung der letzten zwei Jahre ansehen, fühlen wir uns oft wie in einem Schnellzug, der kaum an Bahnhöfen hält. Doch basierend auf aktuellen Analysen und Beobachtungen zeichnet sich für das Jahr 2026 ein fundamentaler Wandel ab: Wir verlassen die Phase des reinen Experimentierens (&amp;quot;Wow, ChatGPT kann dichten!&amp;quot;) und treten in die Phase der operativen Wertschöpfung ein.&lt;/p&gt;
&lt;p&gt;Der gemeinsame Nenner für 2026 ist &lt;strong&gt;Autonomie&lt;/strong&gt; – und zwar nicht mehr nur digital auf unseren Bildschirmen, sondern zunehmend auch physisch in unserer echten Welt. Schauen wir uns im Detail an, was das für uns als Entwickler, E-Commerce-Experten und Data Scientists bedeutet.&lt;/p&gt;
&lt;h2&gt;Physical AI: Die Intelligenz bekommt einen Körper&lt;/h2&gt;
&lt;p&gt;Ein entscheidender Wendepunkt für 2026 ist der Aufstieg der &lt;strong&gt;&amp;quot;Physical AI&amp;quot;&lt;/strong&gt;. Während wir bisher KI vor allem als Chatbot oder Bildgenerator kannten, verlässt die Intelligenz nun den Bildschirm und manifestiert sich in der physischen Welt. Es ist die Konvergenz von fortschrittlicher KI mit Hardware – von Industrierobotern bis hin zu Consumer-Geräten.&lt;/p&gt;
&lt;h3&gt;Verkörperte Intelligenz statt starrer Programmierung&lt;/h3&gt;
&lt;p&gt;Roboter entwickeln sich von &amp;quot;dummen&amp;quot; Automaten, die stur programmierten Pfaden folgen, zu intelligenten Akteuren. Dank fortschrittlicher Modelle nehmen sie ihre Umgebung über Sensoren wahr und treffen autonom Entscheidungen. Wir sprechen hier von &lt;strong&gt;verkörperter Intelligenz&lt;/strong&gt;: Roboter agieren nicht mehr nur als Werkzeuge, sondern als autonome Agenten, die reale Probleme lösen.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/screenshot_20251214_134830.png&quot; alt=&quot;Roboter in Frabrik&quot; /&gt; (Bildquelle: Google AI)&lt;/p&gt;
&lt;p&gt;Ein Beispiel hierfür ist Amazons &amp;quot;DeepFleet&amp;quot;-KI, die riesige Roboterflotten koordiniert, oder BMW-Fabriken, in denen Fahrzeuge selbstständig durch die Produktion navigieren. Es geht um &amp;quot;Vision-Guided Assembly&amp;quot;, bei dem Systeme in Echtzeit auf Abweichungen reagieren, anstatt bei jedem Fehler stehenzubleiben.&lt;/p&gt;
&lt;h3&gt;Die Ära der kollaborativen Automatisierung&lt;/h3&gt;
&lt;p&gt;Die alte Angst vor der Verdrängung durch Maschinen weicht 2026 dem Konzept der &lt;strong&gt;Mensch-Maschine-Teams&lt;/strong&gt;. Wir sehen den Aufstieg der &amp;quot;kollaborativen Automatisierung&amp;quot;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Aufgabenteilung:&lt;/strong&gt; Roboter (Cobots) übernehmen routinemäßige, gefährliche oder schwere Aufgaben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Fokus Mensch:&lt;/strong&gt; Wir Menschen konzentrieren uns auf Strategie, Kreativität und komplexe Kundenbeziehungen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sicherheit:&lt;/strong&gt; Ein enormer Fokus liegt auf &amp;quot;Fail-Safes&amp;quot;, damit diese autonomen Systeme sicher Seite an Seite mit uns arbeiten können.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Revolution in Logistik und neuen Branchen&lt;/h3&gt;
&lt;p&gt;Die Auswirkungen sind branchenübergreifend spürbar:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Logistik &amp;amp; Lagerhaltung:&lt;/strong&gt; Autonome Mobile Roboter (AMRs) werden zum Standard in Verteilzentren. Sie bringen Artikel direkt zu den Kommissionierern und reduzieren Leerlaufzeiten drastisch. Gesteuert werden diese Flotten direkt durch E-Commerce-Daten, um Millionen von Bestellungen zu sortieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Phygital B2B:&lt;/strong&gt; Im B2B-Handel verschmelzen physische und digitale Welt. Roboter bestücken beispielsweise Smart Locker, damit Handwerker ihre Bestellungen rund um die Uhr abholen können.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Landwirtschaft:&lt;/strong&gt; Autonome Drohnen überwachen Felder und sprühen Pestizide nur dort, wo es wirklich nötig ist, was Erträge steigert und die Umwelt schont.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Energie:&lt;/strong&gt; Drohnen inspizieren Windkraftanlagen oder Stromleitungen, um Risiken für Menschen zu minimieren und Fehler früher zu erkennen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Technischer Enabler:&lt;/strong&gt; Damit das alles in Echtzeit funktioniert, verlagert sich die Rechenleistung via &lt;strong&gt;Edge AI&lt;/strong&gt; direkt in die Geräte. Hier gewinnt die Programmiersprache &lt;strong&gt;Rust&lt;/strong&gt; enorm an Bedeutung, da sie die nötige Speichersicherheit und Performance für diese kritischen Systeme liefert.&lt;/p&gt;
&lt;h2&gt;IoT 2026: Vom Sensornetz zum autonomen Nervensystem (AIoT)&lt;/h2&gt;
&lt;p&gt;Im Jahr 2026 ist das Internet of Things kein loses Netzwerk vernetzter Sensoren mehr. IoT verschmilzt vollständig mit künstlicher Intelligenz zur &lt;strong&gt;AIoT&lt;/strong&gt; oder &lt;strong&gt;Physical AI&lt;/strong&gt;. Geräte sammeln nicht mehr nur Daten, sondern &lt;strong&gt;treffen autonome Entscheidungen direkt am Entstehungsort (Edge)&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/iot-prozess-beispiel.png&quot; alt=&quot;Beispiel IoT Prozess&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Von Datensammlung zu Handlung: Zero-Click &amp;amp; Autonomous Commerce&lt;/h3&gt;
&lt;p&gt;IoT-Systeme werden zu aktiven Marktteilnehmern:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Autonome Nachbestellung (B2B):&lt;/strong&gt; Sensoren in Lagern, Maschinen oder Produktionslinien überwachen Füllstände und Verschleiß und lösen bei Bedarf automatisch Bestellungen über Commerce-APIs aus – ohne menschliches Eingreifen. Das senkt Lagerkosten und verhindert Produktionsstillstände.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Predictive Maintenance 2.0:&lt;/strong&gt; KI interpretiert kontinuierlich strukturierte und unstrukturierte Sensordaten, um Ausfälle vorherzusagen, bevor sie auftreten. In Branchen wie Energieversorgung oder Industrie werden manuelle Prüfungen dadurch weitgehend überflüssig.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Edge AI, TinyML &amp;amp; Distributed MLOps&lt;/h3&gt;
&lt;p&gt;Die Cloud verliert ihre Monopolstellung:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Edge AI &amp;amp; TinyML:&lt;/strong&gt; Modelle werden so optimiert, dass sie auf ressourcenbeschränkten Geräten laufen. Das reduziert Latenz, spart Bandbreite und verbessert Datenschutz, da Daten das Gerät nicht verlassen müssen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Distributed MLOps:&lt;/strong&gt; Deployment, Updates und Monitoring von Modellen erfolgen verteilt über Tausende oder Millionen Geräte.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Rust als Schlüsseltechnologie:&lt;/strong&gt; Für Embedded- und IoT-Systeme etabliert sich Rust als bevorzugte Sprache, da sie Performance mit hoher Speichersicherheit verbindet.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Expansion der Physical AI: Robotik &amp;amp; Drohnen&lt;/h3&gt;
&lt;p&gt;IoT wird mobil und autonom:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Branchenübergreifende Autonomie:&lt;/strong&gt; IoT-gesteuerte Roboter und Drohnen übernehmen Inspektionen, Transporte oder Feldanalysen selbstständig – von Logistik über Landwirtschaft bis Gesundheitswesen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Lagerhaus-Automatisierung:&lt;/strong&gt; Flotten aus AGVs und AMRs, gesteuert durch IoT- und Echtzeitdaten, werden zum Standard, um Arbeitskräftemangel und steigende Bestellvolumina abzufedern.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Hardware- und Energiegrenzen&lt;/h3&gt;
&lt;p&gt;Der Ausbau von AIoT trifft auf physische Limits:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Legacy-Chip-Mangel:&lt;/strong&gt; Besonders ältere Chiptechnologien (&amp;gt;90 nm), essenziell für IoT-Geräte und Industrieanlagen, geraten unter Druck – ein Risiko für Skalierung und Verfügbarkeit.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Energieeffizienz:&lt;/strong&gt; Energy-Efficient Computing wird zur Pflicht. Neuromorphe Ansätze und spezialisierte Inference-Chips adressieren den steigenden Strombedarf.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Sicherheit &amp;amp; Sovereign AI im IoT&lt;/h3&gt;
&lt;p&gt;Da IoT zunehmend kritische Prozesse steuert, wird Sicherheit zur Systemfrage:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Sovereign AI:&lt;/strong&gt; IoT-Daten und Modelle müssen lokal verarbeitet werden (Data Residency), um regulatorische und geopolitische Risiken zu minimieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Preemptive Cybersecurity:&lt;/strong&gt; KI-basierte Sicherheitssysteme erkennen Angriffe prädiktiv, bevor sie Schaden anrichten können.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Kurz gesagt:&lt;/strong&gt; IoT ist 2026 das &lt;strong&gt;Nervensystem autonomer Agenten&lt;/strong&gt;. Es liefert nicht nur Daten, sondern führt physische Aktionen wie Bestellungen, Wartungen oder Transporte selbstständig direkt am Gerät aus.&lt;/p&gt;
&lt;h2&gt;Consumer Hardware: Von Training zu Inference im Alltag&lt;/h2&gt;
&lt;p&gt;Ein oft unterschätzter, aber zentraler Trend für 2026 ist der Wandel in der &lt;strong&gt;Consumer-Hardware&lt;/strong&gt;. Während in den letzten Jahren vor allem Chips für das Training großer KI-Modelle im Fokus standen, verschiebt sich die Nachfrage nun deutlich in Richtung &lt;strong&gt;Inference&lt;/strong&gt; – also die effiziente Anwendung von KI im Alltag.&lt;/p&gt;
&lt;h3&gt;Von Trainings-Chips zu Inference-Maschinen&lt;/h3&gt;
&lt;p&gt;Für Endgeräte zählt nicht maximale Rechenleistung um jeden Preis, sondern &lt;strong&gt;Energieeffizienz, geringe Latenz und Verfügbarkeit in Echtzeit&lt;/strong&gt;. KI-Antworten müssen sofort kommen – ohne Roundtrip in die Cloud. Das führt zu einer neuen Generation von Chips, die speziell für Inference optimiert sind und KI-Funktionen permanent im Hintergrund ausführen können.&lt;/p&gt;
&lt;h3&gt;On-Device AI als Standard&lt;/h3&gt;
&lt;p&gt;&lt;img src=&quot;&quot; alt=&quot;On-Device als Standard&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Unternehmen wie z.B. Qualcomm treiben diese Entwicklung massiv voran. &amp;quot;On-Device AI&amp;quot; bedeutet, dass KI direkt auf Smartphones, Laptops oder Wearables läuft – auch offline. Das bringt mehrere Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Datenschutz:&lt;/strong&gt; Sensible Daten verlassen das Gerät nicht.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kostenkontrolle:&lt;/strong&gt; Weniger Cloud-Inference reduziert laufende Betriebskosten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Performance:&lt;/strong&gt; Sprach-, Bild- oder Gestenerkennung reagieren ohne spürbare Verzögerung.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Diese Entwicklung ist der Schlüssel dafür, dass KI tatsächlich zum unsichtbaren Alltagsbegleiter wird – und nicht nur zur Cloud-API.&lt;/p&gt;
&lt;h3&gt;Energieeffizientes Computing als Innovationsfeld&lt;/h3&gt;
&lt;p&gt;Gleichzeitig wächst der Druck, den Energiehunger der IT einzudämmen. Neben klassischen Chip-Optimierungen entstehen neue Paradigmen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Optisches Computing:&lt;/strong&gt; Rechenoperationen mit Licht versprechen drastisch geringeren Energieverbrauch bei bestimmten Workloads.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Neuromorphe Systeme:&lt;/strong&gt; Chips, die das menschliche Gehirn nachahmen, arbeiten ereignisbasiert statt taktbasiert – ideal für Sensorik, Mustererkennung und Edge-Anwendungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auch wenn diese Technologien 2026 noch nicht flächendeckend im Consumer-Markt ankommen, markieren sie die Richtung für die nächste Dekade.&lt;/p&gt;
&lt;h3&gt;Das Smartphone als biometrische Festung&lt;/h3&gt;
&lt;p&gt;Im Mobile Commerce und bei digitalen Identitäten wird das Smartphone 2026 zur &lt;strong&gt;zentralen Sicherheitsinstanz&lt;/strong&gt;. Hardware übernimmt dabei Aufgaben, die früher durch Passwörter und manuelle Prüfungen gelöst wurden.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Biometrische Standards:&lt;/strong&gt; Fingerabdruck- und Gesichtserkennung werden zur Grundvoraussetzung für reibungslose &lt;em&gt;Wallet-First&lt;/em&gt;-Bezahlvorgänge und Logins. Passwörter und manuelle Karteneingaben verschwinden zunehmend aus dem Alltag.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Real-World Object Detection:&lt;/strong&gt; Verbesserte Kameras, LiDAR- und Tiefensensoren ermöglichen es Smartphones, reale Objekte präzise zu erkennen und digitale Inhalte exakt in die physische Umgebung einzubetten.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Für den Handel bedeutet das: Authentifizierung, Zahlung und Kontext verschmelzen zu einem einzigen, hardware-gestützten Prozess.&lt;/p&gt;
&lt;h3&gt;Smart Home &amp;amp; Connected Devices&lt;/h3&gt;
&lt;p&gt;Auch im häuslichen Umfeld wird Hardware zum natürlichen Interface zwischen Mensch und digitalem Handel.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Voice Commerce:&lt;/strong&gt; Smarte Lautsprecher, Wearables und vernetzte Haushaltsgeräte entwickeln sich zu aktiven Einkaufsassistenten. Bestellungen erfolgen kontextbasiert per Sprache – ohne App, ohne Bildschirm, mit minimalen Interaktionsschritten.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Zusammengefasst lässt sich sagen: Consumer-Hardware im Jahr 2026 wird definiert durch &lt;strong&gt;KI-Spezialisierung (Inference-Chips)&lt;/strong&gt;, &lt;strong&gt;Autonomie&lt;/strong&gt; und &lt;strong&gt;natürliche Interaktion&lt;/strong&gt; über Biometrie, Sprache und räumliches Verständnis.&lt;br /&gt;
Gleichzeitig wächst der Druck, den Energiehunger der IT einzudämmen. Neben klassischen Chip-Optimierungen entstehen neue Paradigmen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Optisches Computing:&lt;/strong&gt; Rechenoperationen mit Licht versprechen drastisch geringeren Energieverbrauch bei bestimmten Workloads.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Neuromorphe Systeme:&lt;/strong&gt; Chips, die das menschliche Gehirn nachahmen, arbeiten ereignisbasiert statt taktbasiert – ideal für Sensorik, Mustererkennung und Edge-Anwendungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auch wenn diese Technologien 2026 noch nicht flächendeckend im Consumer-Markt ankommen, markieren sie die Richtung für die nächste Dekade.&lt;/p&gt;
&lt;h2&gt;AR &amp;amp; VR: Die Schnittstelle zwischen digitaler und physischer Welt&lt;/h2&gt;
&lt;p&gt;AR und VR erreichen 2026 einen Reifegrad, der sie erstmals breit einsetzbar macht – auch jenseits von Gaming und Marketing-Demos.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-ar-vr.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Neue Interaktionsformen&lt;/h3&gt;
&lt;p&gt;Die Interaktion löst sich von klassischen Controllern:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Gesten- und Blicksteuerung&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kopfbewegungen&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Natürliche Sprachbefehle&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Dadurch wird AR/VR intuitiver und inklusiver – und gleichzeitig enger mit KI-Systemen verzahnt, die Kontext und Absicht verstehen.&lt;/p&gt;
&lt;h3&gt;Shopping &amp;amp; E-Commerce neu gedacht&lt;/h3&gt;
&lt;p&gt;Für den (B2B- und B2C-)Handel ergeben sich konkrete Anwendungsfälle:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Virtual Try-Ons:&lt;/strong&gt; Kleidung, Brillen oder Schutzkleidung werden realistisch am eigenen Körper visualisiert.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;In-Home-Visualisierung:&lt;/strong&gt; Möbel oder Maschinen lassen sich maßstabsgetreu im eigenen Raum platzieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Beratung in Echtzeit:&lt;/strong&gt; KI-gestützte Assistenten begleiten Nutzer durch immersive Einkaufserlebnisse.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;AR/VR wird damit nicht zum Gimmick, sondern zur &lt;strong&gt;verkaufsrelevanten Schnittstelle&lt;/strong&gt; zwischen Produktdaten, Raum und Kunde.&lt;/p&gt;
&lt;p&gt;Siehe auch &lt;a href=&quot;https://tblocks.com/articles/e-commerce-trends/&quot;&gt;E-commerce Trends 2026: 10 Insights for the Future of Online Shopping&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Die Hardware-Krise 2026: Engpässe, Energie und Geopolitik&lt;/h2&gt;
&lt;p&gt;Neben all diesen Innovationen zeichnet sich für 2026 eine strukturelle &lt;strong&gt;Hardware-Krise&lt;/strong&gt; ab – allerdings nicht als eindimensionaler Mangel, sondern als komplexes Zusammenspiel aus falschen Investitionsanreizen, Energieknappheit und geopolitischen Risiken.&lt;/p&gt;
&lt;h3&gt;Die Zwei-Klassen-Krise bei Chips&lt;/h3&gt;
&lt;p&gt;Die Krise wird weniger durch fehlende High-End-KI-Chips bestimmt, sondern durch einen Mangel an sogenannten &lt;strong&gt;Legacy-Chips&lt;/strong&gt;.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Alltagstechnik unter Druck:&lt;/strong&gt; Während massiv in modernste Fertigung für KI und Smartphones investiert wurde, blieb die Produktion reifer Technologien (über 90 nm) zurück – genau jener Chips, die Autos, Haushaltsgeräte und Medizintechnik benötigen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Konsequenzen:&lt;/strong&gt; Produktionsstopps in der Automobilindustrie werden wahrscheinlicher. Ein weltweiter Rückgang der Fahrzeugproduktion um bis zu 20 % gilt als realistisches Szenario, mit längeren Lieferzeiten und steigenden Preisen für Endkunden.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-hardwarekrise.png&quot; alt=&quot;Die Zwei-Klassen-Krise bei Chips&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Energie als neuer Flaschenhals&lt;/h3&gt;
&lt;p&gt;Die Hardware-Krise wird zunehmend zu einer &lt;strong&gt;Energie-Krise&lt;/strong&gt;.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;AI Factories:&lt;/strong&gt; Der massive Ausbau von Rechenzentren treibt den Strombedarf auf ein neues Niveau.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kosten &amp;amp; Knappheit:&lt;/strong&gt; Verfügbarkeit und Preis von Elektrizität werden zum limitierenden Faktor für Wachstum.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Gegenmaßnahmen:&lt;/strong&gt; Unternehmen sind gezwungen, KI-Berechnungen zeitlich zu verschieben – etwa durch &lt;strong&gt;Carbon Scheduling&lt;/strong&gt;, bei dem Inference dann läuft, wenn Energie verfügbar oder günstig ist.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Geopolitische Unsicherheit als Preistreiber&lt;/h3&gt;
&lt;p&gt;Die Abhängigkeit von globalen Lieferketten bleibt kritisch:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Asien-Abhängigkeit:&lt;/strong&gt; Ein Großteil der Unternehmen sieht geopolitische Spannungen rund um Taiwan als ernsthafte Bedrohung für die Versorgung mit Halbleitern.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Preissteigerungen:&lt;/strong&gt; Bereits heute sind die meisten Unternehmen mit steigenden Chippreisen konfrontiert – Kosten, die an Endkunden weitergereicht werden.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Lieferverzögerungen als neues Normal&lt;/h3&gt;
&lt;p&gt;Selbst ohne Eskalation bleibt die Lage angespannt:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Durchschnittliche Verzögerung:&lt;/strong&gt; Etwa vier Monate Lieferzeit für Halbleiter gelten als normal.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Planungsunsicherheit:&lt;/strong&gt; Ein signifikanter Teil der Unternehmen stuft die Versorgungslage für 2026 als kritisch ein.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Essenz:&lt;/strong&gt; Die Krise entsteht nicht, weil es &lt;em&gt;keine&lt;/em&gt; Technologie gibt, sondern weil lange Zeit die &lt;em&gt;falsche&lt;/em&gt; priorisiert wurde. Das verstärkt den politischen und wirtschaftlichen Fokus auf Energieinfrastruktur, Resilienz und souveräne Lieferketten.&lt;/p&gt;
&lt;h2&gt;Green AI: Nachhaltigkeit als Architektur-Entscheidung&lt;/h2&gt;
&lt;p&gt;Das Thema Nachhaltigkeit wird 2026 von einer spannenden Dualität geprägt sein. Wir stehen vor der Herausforderung, den enormen Energiehunger der KI selbst zu bewältigen (&lt;strong&gt;Green AI&lt;/strong&gt;) und gleichzeitig KI als Werkzeug zu nutzen, um nachhaltiger zu werden (&lt;strong&gt;AI for Sustainability&lt;/strong&gt;).&lt;/p&gt;
&lt;h3&gt;Die Balance: Green MLOps &amp;amp; Carbon Scheduling&lt;/h3&gt;
&lt;p&gt;Nachhaltigkeit wird fester Bestandteil von Machine Learning Operations (MLOps). Wir Entwickler optimieren nicht mehr nur auf Genauigkeit eines Modells, sondern suchen den Trade-off zwischen Performance, Kosten und dem CO2-Fußabdruck. Grüne Metriken werden zu zentralen KPIs.&lt;/p&gt;
&lt;p&gt;Ein großes Thema wird &lt;strong&gt;Carbon Scheduling&lt;/strong&gt;: KI-Workloads werden zeitlich so gesteuert, dass sie dann laufen, wenn viel erneuerbare Energie im Stromnetz verfügbar ist oder der Strom günstig ist. Da Energieverfügbarkeit zum Engpass für Rechenzentren werden kann, werden Unternehmen gezwungen sein, ihre Energiequellen zu diversifizieren.&lt;/p&gt;
&lt;h3&gt;Daten für die Kreislaufwirtschaft&lt;/h3&gt;
&lt;p&gt;KI wird zum Treiber für echten Geschäftswert durch Nachhaltigkeit.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Scope 3 Transparenz:&lt;/strong&gt; Da Nachhaltigkeitsdaten faktisch Geschäftsdaten sind, nutzen Unternehmen KI, um die komplexen indirekten Emissionen entlang der gesamten Lieferkette (Scope 3) nachzuverfolgen. (Siehe hier auch &lt;a href=&quot;https://www.scope3transparent.de&quot;&gt;https://www.scope3transparent.de&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Digitaler Produktpass:&lt;/strong&gt; Regulatorische Anforderungen zwingen CSOs (Sustainability Officers) und CDOs (Data Officers) zur engen Zusammenarbeit, um die Datenflut für Produktpässe zu bewältigen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Wettbewerbsvorteil:&lt;/strong&gt; Im B2B-E-Commerce wird Transparenz über den CO2-Fußabdruck oder die Materialherkunft zur echten Wettbewerbswaffe. Wer diese Daten transparent liefert, gewinnt Aufträge.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Um den sogenannten &lt;a href=&quot;https://de.wikipedia.org/wiki/Rebound-Effekt_(%C3%96konomie)&quot;&gt;Rebound-Effekt&lt;/a&gt; zu vermeiden – bei dem effizientere KI einfach zu noch mehr Nutzung führt – werden Unternehmen strengere Regeln für die Nutzung von KI-Tokens einführen. KI-Rechenleistung wird nur genehmigt, wenn ein signifikanter geschäftlicher Mehrwert nachweisbar ist.&lt;/p&gt;
&lt;h2&gt;E-Commerce Trends 2026: Autonomie, Plattformen und Datenhoheit&lt;/h2&gt;
&lt;p&gt;Der E-Commerce tritt 2026 in eine neue Reifephase ein. Weniger manuelles Shopping, mehr &lt;strong&gt;Automatisierung, Autonomie und System-Intelligenz&lt;/strong&gt; prägen den Markt. Gleichzeitig entsteht ein deutlicher Gegentrend: der Wunsch nach Kontrolle über Daten, Kosten und Infrastruktur.&lt;/p&gt;
&lt;h3&gt;Agentic Commerce: Wenn Bots einkaufen&lt;/h3&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-agentic-commerce.png&quot; alt=&quot;Wenn KI-Agenten für uns einkaufen&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Der radikalste Wandel ist der Übergang vom klassischen &amp;quot;Click &amp;amp; Buy&amp;quot; hin zu &lt;strong&gt;Agentic Commerce&lt;/strong&gt;. KI-Agenten handeln im Auftrag von Konsumenten und Unternehmen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Sie suchen Produkte, vergleichen Angebote und schließen Käufe autonom ab.&lt;/li&gt;
&lt;li&gt;Im B2B-Bereich treten Einkaufs-Bots zunehmend direkt mit Verkäufer-Systemen in Verhandlungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der Webshop wird damit weniger Verkaufsoberfläche und mehr &lt;strong&gt;API-Endpunkt für Maschinen&lt;/strong&gt;.&lt;br /&gt;
Hier werden alle relevanten Hersteller im Markt Lösungen anbieten (müssen).&lt;br /&gt;
Wir werden in 2026 mehr funktionierende Agentic Commerce Prozesse sehen.&lt;/p&gt;
&lt;h3&gt;Hyper-Personalisierung: Der &amp;quot;Store of One&amp;quot;&lt;/h3&gt;
&lt;p&gt;Personalisierung erreicht 2026 eine neue Stufe. Shops reagieren in Echtzeit auf Kontext und Absicht:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Dynamische Kataloge und Preise pro Nutzer. Ein Beispiel habe ich in meinem Artikel zum &lt;a href=&quot;/post/2025-06-adobe-commerce-advanced-technical-bootcamp-in-barcelona&quot;&gt;Adobe Technical Bootcamp in Barcelona Adobe Commerce Optimizer&lt;/a&gt;) im Bereich Adobe Commerce Optimizer beschrieben.&lt;/li&gt;
&lt;li&gt;Individuell generierte Inhalte statt statischer Seiten&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der „Store of One“ ersetzt die klassische Segmentierung – mit messbaren Effekten auf Conversion und Kundenbindung.&lt;/p&gt;
&lt;h3&gt;Predictive &amp;amp; Zero-Click Commerce&lt;/h3&gt;
&lt;p&gt;E-Commerce wird zunehmend &lt;strong&gt;vorausschauend&lt;/strong&gt;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Systeme erkennen Bedarf, bevor er entsteht (z. B. durch IoT-Sensoren im B2B). Was vor einigen Jahren scheiterte wie der Amazon Dash Button, kommt durch die Hintertür wieder zu uns.&lt;/li&gt;
&lt;li&gt;Nachbestellungen erfolgen automatisch, ohne aktiven Kaufprozess.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der Kauf wird zum Hintergrundprozess – Effizienz schlägt Interaktion.&lt;/p&gt;
&lt;h3&gt;Immersive Commerce als Conversion-Treiber&lt;/h3&gt;
&lt;p&gt;AR und 3D-Shopping werden vom Nice-to-have zum Standard:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Virtuelle Anproben und In-Room-Visualisierung&lt;/li&gt;
&lt;li&gt;Höhere Conversion-Rates und deutlich reduzierte Retouren&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;a href=&quot;https://de.wikipedia.org/wiki/Immersion_(virtuelle_Realit%C3%A4t)&quot;&gt;Immersion&lt;/a&gt; wird zur direkten Umsatzkennzahl.&lt;/p&gt;
&lt;h2&gt;Plattformen, TCO und Architektur-Entscheidungen&lt;/h2&gt;
&lt;p&gt;Mit diesen Trends verschärft sich die strategische Plattformfrage.&lt;/p&gt;
&lt;h3&gt;SaaS &amp;amp; Low-Code: Wachstum durch Convenience&lt;/h3&gt;
&lt;p&gt;Plattformen wie Shopify profitieren von:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;AI-Powered Low-Code/No-Code&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Schneller Time-to-Market&lt;/li&gt;
&lt;li&gt;Geringer Einstiegshürde und kalkulierbarer TCO&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Für viele Unternehmen bleibt dies der schnellste Weg zu skalieren – insbesondere im D2C- und Mid-Market.&lt;/p&gt;
&lt;h3&gt;Composable Commerce: Freiheit mit Preis&lt;/h3&gt;
&lt;p&gt;Für komplexe Enterprise-Anforderungen (aber auch nur da!) setzt sich &lt;strong&gt;Composable Commerce / MACH&lt;/strong&gt; durch:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Best-of-Breed statt All-in-One&lt;/li&gt;
&lt;li&gt;Hohe Flexibilität und Innovationsgeschwindigkeit&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der Preis dafür ist &lt;strong&gt;steigende Komplexität&lt;/strong&gt;. Ohne saubere Governance steigen Betriebskosten und Abhängigkeiten. Auch 2026 werden Händler die diese Komplexität nicht brauchen sich für eine viel zu große Lösung entscheiden und mit ihrem Vorgaben gegen die Wand fahren.&lt;br /&gt;
Auf der anderen Seite wird es auch weiterhin den Irrglauben geben, dass super komplizierte Geschäftsmodelle sich einfach über Standards in Platformen zurechtklicken lassen.&lt;br /&gt;
Bei einfache Geschäftsmodelle werden Platformen wie Shopify weiter den Markt dominieren.&lt;/p&gt;
&lt;h2&gt;Der Gegentrend: Datenhoheit &amp;amp; Sovereign Commerce&lt;/h2&gt;
&lt;p&gt;Parallel zur SaaS-Dominanz wächst ein starker Gegentrend. Einige werden erkennen, dass man doch lieber die volle Kontrolle über seine Prozesse und Daten möchte.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-datenhoheit.png&quot; alt=&quot;Gegentrend: Datenhoheit&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Sovereign AI &amp;amp; Geopatriation&lt;/h3&gt;
&lt;p&gt;Unternehmen priorisieren 2026 zunehmend:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Data Residency&lt;/li&gt;
&lt;li&gt;Kontrolle über Modelle, Daten und Infrastruktur&lt;/li&gt;
&lt;li&gt;Unabhängigkeit von geopolitischen Risiken&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Dies ist weniger Ideologie als Risikomanagement. Heute kann keiner mehr Abschätzen was morgen von Politikern beschlossen wird. Regeln die früher galten, sind morgen nicht mehr gültig.&lt;br /&gt;
Als Unternehmen gilt es eine Risikobewertung vorzunehmen und ggf. auch die Datenhoheit wieder zu erlangen. Prozesse werden immer mehr auch danach bewertet werden, welche Systeme aus welchen Geo-Regionen verwendet werden. Das wird auch seinen Preis haben, den aber Unternehmen in 2026 mehr bereit sein werden zu zahlen. Vielleicht auch, damit der CEO in der Nacht gut schlafen kann.&lt;/p&gt;
&lt;h3&gt;Daten-Governance als Wettbewerbsvorteil&lt;/h3&gt;
&lt;p&gt;Datensicherheit wird kaufentscheidend:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Transparenz über Datenverarbeitung&lt;/li&gt;
&lt;li&gt;Vertrauen als Differenzierungsmerkmal&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Da immer mehr kriminelle Aktivitäten zu beobachten sind, wird &amp;quot;Trusted Retailer&amp;quot; wird zum echten Asset. Als Shop-Betreiber muss ich in 2026 mehr tun, damit Kunden sich sicher fühlen und damit diese auch wirklich sicher sind. Themen wie Käuferschutz, Zertifikate und Siegel aber auch das klare Kennzeichnen von Informationen sind noch wichtiger.&lt;/p&gt;
&lt;h3&gt;Magento Open Source &amp;amp; Hyvä als souveräne Alternative&lt;/h3&gt;
&lt;p&gt;Da ich selbst in dem Bereich tätig bin, muss ich an dieser Stelle auch etwas zum Magento Open Source Ökosystem schreiben.&lt;br /&gt;
Trotz der immer größeren &amp;quot;Kluft&amp;quot; zwischen Adobe Commerce und Magento Open Source abgrenzt sage ich folgendes vorraus:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Magento Open Source&lt;/strong&gt; bleibt strategisch wichtig für Mittelstand und Enterprise&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Hyvä&lt;/strong&gt; senkt Komplexität, modernisiert UX und reduziert Entwicklungskosten&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Damit entsteht eine echte Alternative zu globalen SaaS-Plattformen – insbesondere für Unternehmen mit regulatorischen oder sensiblen B2B-Anforderungen.&lt;/p&gt;
&lt;p&gt;Durch die Freigabe des Hyvä-Themes unter einer Open Source Lizenz, wird Hyvä auch in 2026 immer mehr Markt-Standard werden. Vielleicht wird dadurch auch 2026 der Hyvä Theme zum Standard-Theme des Forks Mage-OS. Dadurch wird das Entwickeln von Magento-Erweiterungen, die Hyvä-Kompatibel sind, nicht mehr optional sein. Es wird 2026 noch mehr Lösungen geben, die ein &amp;quot;Hyvä-Kompatibel-Badge&amp;quot; tragen.&lt;/p&gt;
&lt;p&gt;Adobe treibt seine SaaS Intitative weiter an. Wer den klassischen Monolith braucht da er nicht auf eine Microservice-Landschaft setzt, wird mehr und mehr zu Hyvä Commerce tendieren. Mehr dazu im nächsten Abschnitt.&lt;/p&gt;
&lt;h2&gt;Das E-Commerce Ökosystem: Die große Gabelung&lt;/h2&gt;
&lt;p&gt;Ich habe in der Überschrift bewusst &amp;quot;Gabelung&amp;quot; geschrieben und nicht Spaltung. Eine Spaltung gab es aus meiner Sicht bereits. Für mich sind bereits zwei Ökosysteme vorhanden die noch mit dem Magento Open Source Kern eine Schnittmenge habeben. Es werden aber fundamental unterschiedliche Zielgruppen mit den jeweiligen Lösungen bedient.&lt;br /&gt;
Als jemand, der tief im Magento-Ökosystem verwurzelt ist, finde ich die Entwicklung für 2026 genau deswegen besonders spannend. Es zeichnet sich eine deutliche Zweiteilung des Marktes ab: Adobe fokussiert sich weiter auf die Enterprise-Cloud, während Hyvä das Erbe von Magento Open Source modernisiert.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-magento-gabelung.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Adobe Commerce: Cloud &amp;amp; Agentic AI&lt;/h3&gt;
&lt;p&gt;Adobe setzt voll auf Enterprise-Automatisierung und eine tiefere Integration in die Cloud.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Neuer Release-Zyklus:&lt;/strong&gt; Ab Januar 2026 ändert sich alles. Statt riesiger Quartals-Updates gibt es monatliche, isolierte Sicherheits-Fixes. Das große Feature-Release (LTS) kommt nur noch einmal jährlich im Mai. Das soll &amp;quot;Upgrade-Spikes&amp;quot; glätten und die Wartung planbarer machen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agentic Commerce:&lt;/strong&gt; Das neue &amp;quot;Merchant Center&amp;quot; wird eine KI-gestützte Kommandozentrale. KI-Agenten automatisieren Routineaufgaben – von der Konfiguration komplexer Werbeaktionen bis hin zur Fehlerbehebung bei Datensynchronisationen. Die Adobe Produkte wachsen auch optisch in 2026 immer mehr zusammen. Das wird man auch bei Adobe Commerce sehen. Dieses Jahr wurde schon am Admin-UI umgestyled. Über SDKs können App Builder Anwendungen aussehen wie jede andere Adobe-Anwendungen. Diese Vereinheitlichung der Optik wird auch 2026 weitergehen, mit dem Ziel dem Nutzer ein einheitliches System zu zeigen. Im Hintergrund arbeiten aber die anderne Systeme weiterhin über Schnittstellen zusammen. Das Ziel wird es sein, diese den Benutzern zu verstecken.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Edge Delivery für B2B:&lt;/strong&gt; Für B2B-Kunden werden &amp;quot;Drop-ins&amp;quot; eingeführt, die extrem schnelle Storefronts ermöglichen – mit Funktionen wie Bestelllisten und Unternehmenshierarchien. Bisher waren die EDS Storefronts überwiegend für B2C fokusiert. Im Jahr 2026 wird man erste B2B Cases sehen. Diese B2B-Shops werden international sein und mit schnellen Storefronts punkten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;App Builder:&lt;/strong&gt; Mit nativer Unterstützung für Dokumenten-Datenbanken können wir Entwickler datenintensive Microservices direkt im Adobe-Ökosystem bauen, ohne externe AWS-Infrastruktur provisionieren zu müssen. Meine Voraussage für 2026 ist nicht sonderlich spannend hier. Es wird einfach mehr App-Builder Apps geben. Adobe arbeitet weiter daran, dass Entwickler es einfacher haben werden, bestehende Magento Module in App Builder Apps zu transformieren. Viele dieser Apps wird man aber nicht im Adobe Marketplace wahrnehmen, da diese in privaten Umgebungen betrieben werden.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Hyvä: Vom Theme zur Plattform (&amp;quot;Hyvä Commerce&amp;quot;)&lt;/h3&gt;
&lt;p&gt;Hyvä entwickelt sich 2026 von einer reinen Frontend-Lösung zu einer umfassenden Plattform-Erweiterung, die Lücken füllt, die Adobe (bewusst) offen lässt.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Admin Dashboard:&lt;/strong&gt; Hyvä revitalisiert das Backend mit einem neuen Widget-Framework. Händler können Daten wie Verkäufe, Core Web Vitals oder offene Aufgaben direkt im Admin-Panel visualisieren und personalisieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Enterprise-Ready:&lt;/strong&gt; Hyvä arbeitet aggressiv an der Kompatibilität mit Adobe Commerce Features wie &amp;quot;Negotiable Quotes&amp;quot; oder &amp;quot;Gift Registry&amp;quot;. Damit wird es zur echten Alternative für Enterprise-Kunden, die Luma oder PWA Studio vermeiden wollen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Checkout &amp;amp; Performance:&lt;/strong&gt; Der Checkout erhält neue Layouts und Login-Workflows. Zudem wandern Tools zur Bildoptimierung direkt in den Core, um externe Abhängigkeiten zu reduzieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Magento Open Source lebt&lt;/h3&gt;
&lt;p&gt;Entgegen aller Unkenrufe bleibt Magento Open Source relevant. Getrieben durch das Hyvä-Ökosystem und die Community (Mage-OS), bleibt die Plattform stabil. Der neue Patch-Modell von Adobe (jährliches Feature-Release) gilt auch für die Open Source Variante, was Planungssicherheit bis 2027/2028 gibt. Da sich ein Unternehmen wie Hyvä nicht um die darunterliegendende Plattform kümmern muss, können die eigenen Mitarbeiter sich auf die innovative Weiterentwicklung fokussieren. Adobe selbst fokusiert sich nicht mehr auf die direkte Weiterentwicklung über Magento-Module. Genau hier wird Hyvä-Commerce zur neuen Standard-Lösung werden und mehr und mehr als eigene Marke (Shopsystem) wahrgenommen werden.&lt;/p&gt;
&lt;h2&gt;Coding &amp;amp; Data: Der Entwickler als Orchestrator&lt;/h2&gt;
&lt;p&gt;Die Rolle von uns Entwicklern verändert sich grundlegend. Wir bewegen uns weg von der reinen Syntax-Erstellung hin zur Orchestrierung von Systemen. Ich hatte es schon mehrfach in anderen Blog-Posts geschrieben. Der klassische Coder wird immer weniger gebraucht. Das wird 2026 noch krasser sein. Es werden mehr Software-Architekten benötigt. Diese Architekten geben nur noch ihre Wünsche als Anweisungen an die KI weiter. Der Code-Review wird dann noch vom Menschen gemacht. Auch beim Code-Review wird (aufgrund von Wettbewerbsdruck) immer mehr auf die KI-Mitarbeiter gesetzt werden. Das wird auch Probleme bringen. Man wird mehr von &amp;quot;KI-Pannen&amp;quot; hören da Code mehr und mehr ungesehen &amp;quot;durchgewunken&amp;quot; wird.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-modern-developer-beim-arbeiten.png&quot; alt=&quot;Der moderne Entwickler beim seiner Arbeit&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Hier sind Sicherheitsmechanismen in der Entwicklung gefragt. Alle diese Themen waren schon 2025 und werden uns 2026 noch mehr beschäftigen. Da die meisten Entwickler kein Dinge wie Linux-Kernel-Entwicklung machen und oft Boilerplate-Code nur ergänzen, ist die Frage ob KI zum Einsatz kommt nicht mehr relevant. Entwickler die keine KI einsetzen, werden ersetzt werden. Entweder durch KI selbst oder durch Entwickler die erfahren im Einsatz mit KI-Tools sind.&lt;/p&gt;
&lt;h3&gt;Low-Code/No-Code vs. Coding Agents&lt;/h3&gt;
&lt;p&gt;Eine der meist diskutierten Fragen für 2026 lautet: Wird Low-Code/No-Code durch das direkte Erzeugen von Code via KI-Agenten ersetzt? Die kurze Antwort lautet: &lt;strong&gt;Nein – aber es verändert sich grundlegend.&lt;/strong&gt;&lt;/p&gt;
&lt;h4&gt;Wenn KI das Coden einfacher macht als No-Code&lt;/h4&gt;
&lt;p&gt;Klassische Drag-and-Drop-No-Code-Ansätze geraten unter Druck:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Komplexität vs. Prompting:&lt;/strong&gt; In vielen No-Code-Tools müssen Nutzer komplexe Logiken über verschachtelte Menüs abbilden. Mit KI-gestütztem Coding reicht oft ein präziser Prompt („Erstelle ein Verkaufs-Dashboard in Python“), und produktionsnaher Code entsteht in Sekunden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;AI-Assisted Coding:&lt;/strong&gt; Tools wie Coding Agents, Copiloten oder IDEs mit KI machen das Schreiben von Code zugänglicher als je zuvor. Entscheidend ist nicht mehr Syntax-Wissen, sondern das Verständnis von Geschäftslogik.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Vibe Coding:&lt;/strong&gt; Es entsteht ein neues Paradigma, bei dem Menschen Software entwickeln, ohne klassische Entwickler zu sein – sie steuern KI-Agenten über Sprache. Dieses Modell konkurriert direkt mit dem ursprünglichen Versprechen von No-Code.&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;AI-Powered Low-Code&lt;/h4&gt;
&lt;p&gt;Gleichzeitig verschwinden Low-Code/No-Code-Plattformen nicht, sondern &lt;strong&gt;evolvieren&lt;/strong&gt;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Co-Creation:&lt;/strong&gt; Entwickler und Fachbereiche beschreiben Prozesse, Datenmodelle oder Regeln in natürlicher Sprache – die Plattform generiert daraus lauffähige Module.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Intelligenz statt nur Geschwindigkeit:&lt;/strong&gt; Low-Code wird zur Orchestrierungs- und Skalierungsplattform, in die KI-Agenten fest integriert sind.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Marktrealität:&lt;/strong&gt; Prognosen gehen davon aus, dass ein Großteil neuer Unternehmensanwendungen auch 2026 auf Low-Code/No-Code-Plattformen entsteht – allerdings mit nativer KI als Kern.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ich selbst arbeite viel mit n8n. In n8n sieht man das auch jetzt schon sehr gut. Hier gibt es immer mehr Integrationen für Entwickler direkt über MCP-Server die Workflows zu erzeugen. In der Cloud-Version ist zudem auch ein AI-Assistent integriert der auch direkt aus Sprache die Workflows vorbauen kann, die man dann nur noch modifiziert.&lt;br /&gt;
Low-Code Plattformen erlauben auch das Ausführen von reinen Code-Lösungen. Das ist charmant, denn man sieht dann den Prozess weiterhin visuelle. Hier verschmelzen bereits jetzt beide Ansätze.&lt;br /&gt;
In 2026 werden Low-Code Plattformen auch weiterhin relevant sein. Es wird mehr Lösungen geben die von AI-Coding-Agents generiert werden und in Low-Code Lösungen integriert sein werden.&lt;br /&gt;
Mehr dazu im nächsten Abschnitt.&lt;/p&gt;
&lt;h4&gt;Warum Low-Code/No-Code aus Unternehmenssicht bleibt&lt;/h4&gt;
&lt;p&gt;Trotz mächtiger Coding Agents behalten LCNC-Plattformen strategische Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Governance &amp;amp; Sicherheit:&lt;/strong&gt; Sie liefern Leitplanken wie Architekturvorgaben, Compliance-Checks und Security-Scans für KI-generierten Code.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Legacy-Modernisierung:&lt;/strong&gt; Low-Code bleibt der effizienteste Weg, alte Systeme mit APIs, RPA und KI schrittweise zu modernisieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Essenz:&lt;/strong&gt; Low-Code/No-Code wird nicht durch manuelles Coding ersetzt, sondern durch &lt;strong&gt;Natural Language Programming&lt;/strong&gt; erweitert. Das manuelle Zusammenklicken verliert an Bedeutung – die natürliche Sprache wird zur universellen Schnittstelle, egal ob innerhalb einer Plattform oder direkt im Code-Editor.&lt;/p&gt;
&lt;p&gt;KI ist 2026 der Standard-Partner beim Coden. Routineaufgaben wie Boilerplate-Code, Tests und Dokumentation werden fast vollständig automatisiert. Wir Entwickler fungieren zunehmend als &amp;quot;Architekten&amp;quot; und Prüfer des generierten Codes. Der &amp;quot;Vibe&amp;quot;, den ich beim Coden so schätze, verlagert sich auf das Lösen komplexer Architekturprobleme.&lt;/p&gt;
&lt;h3&gt;Data Governance &amp;amp; FinOps&lt;/h3&gt;
&lt;p&gt;Daten sind das Öl, aber ohne Raffinerie und Sicherheitsvorkehrungen nutzlos. Da KI-Modelle nur so gut sind wie ihre Daten, wird &lt;strong&gt;Data Governance&lt;/strong&gt; zur Priorität. &amp;quot;&lt;a href=&quot;https://cloud.google.com/discover/what-is-a-data-lakehouse?hl=de&quot;&gt;Lakehouses&lt;/a&gt;&amp;quot; (Unified Data Platforms) werden zum Standard, um Datensilos aufzubrechen. Gleichzeitig wird &lt;strong&gt;FinOps&lt;/strong&gt; für KI eine kritische Fähigkeit für Data Scientists: Es geht darum, die explodierenden Kosten für KI-Infrastruktur (Inference Costs) strikt zu kontrollieren.&lt;/p&gt;
&lt;h2&gt;KI im Alltag 2026: Vom Chatten zum Handeln&lt;/h2&gt;
&lt;p&gt;KI verlässt 2026 endgültig die Rolle eines reinen Bildschirm-Tools. Wir bewegen uns von einer Phase, in der wir mit KI &lt;em&gt;interagieren&lt;/em&gt;, hin zu einer, in der KI &lt;strong&gt;für uns handelt&lt;/strong&gt;, Entscheidungen trifft und physisch präsent wird. KI wird damit zur unsichtbaren Infrastruktur des Alltags.&lt;/p&gt;
&lt;h3&gt;Vom Assistenten zum digitalen „Angestellten&amp;quot;&lt;/h3&gt;
&lt;p&gt;Der fundamentalste Wandel ist der Aufstieg der &lt;strong&gt;Agentic AI&lt;/strong&gt;.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Einkaufs- &amp;amp; Service-Bots:&lt;/strong&gt; Verbraucher delegieren Aufgaben an persönliche KI-Agenten, die Produkte finden, Preise verhandeln und Käufe abschließen. Entscheidungen, die früher langes Vergleichen erforderten, werden in Sekunden getroffen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Autonome Workflows:&lt;/strong&gt; Diese Agenten planen Reisen, verwalten Abonnements oder führen Finanztransaktionen selbstständig aus – mit klar definierten Leitplanken des Nutzers.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Arbeit: Weniger Monotonie, mehr Wirkung&lt;/h3&gt;
&lt;p&gt;KI verändert nicht nur &lt;em&gt;was&lt;/em&gt; wir tun, sondern &lt;em&gt;wie&lt;/em&gt; wir arbeiten:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Fokus auf Strategie:&lt;/strong&gt; Routinetätigkeiten wie Rechnungsprüfung, Reporting oder Coding-Grundgerüste werden automatisiert. Menschen konzentrieren sich stärker auf Problemlösung, Kreativität und Entscheidungen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Demokratisierung von Fähigkeiten:&lt;/strong&gt; KI-gestütztes Coding und „Vibe Coding“ ermöglichen es auch Nicht-Entwicklern, Software zu erstellen, indem sie ihre Absicht beschreiben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Der AI Generalist:&lt;/strong&gt; Digitale Grundfähigkeiten werden zum neuen Standard. Gefragt sind Menschen, die verschiedene KI-Systeme orchestrieren können.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Hyper-Personalisierung &amp;amp; Zero-Click-Erlebnisse&lt;/h3&gt;
&lt;p&gt;Alltägliche digitale Erlebnisse werden 2026 hochgradig individuell:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Store of One:&lt;/strong&gt; Online-Shops, Inhalte und Preise werden in Echtzeit für jede einzelne Person generiert.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prädiktive Services:&lt;/strong&gt; Systeme erkennen Bedürfnisse, bevor sie explizit formuliert werden – bis hin zum &lt;strong&gt;Zero-Click Commerce&lt;/strong&gt;, bei dem automatisch nachbestellt wird.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Physische KI &amp;amp; immersive Realitäten im Alltag&lt;/h3&gt;
&lt;p&gt;Die Grenze zwischen digitaler und physischer Welt verschwimmt:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;AR &amp;amp; VR:&lt;/strong&gt; Virtuelle Anproben, immersives Lernen oder therapeutische Anwendungen werden alltäglich und senken Reibung sowie Kosten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Physical AI:&lt;/strong&gt; Drohnen, Lieferroboter oder Assistenzsysteme in Krankenhäusern und der Logistik werden Teil des normalen Stadt- und Arbeitsbildes.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Unsichtbare, sichere Transaktionen&lt;/h3&gt;
&lt;p&gt;Technologie tritt in den Hintergrund:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Biometrische Wallets:&lt;/strong&gt; Bezahlung und Identifikation erfolgen über Gesicht oder Fingerabdruck – schnell, sicher und ohne bewusste Interaktion.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Instant Refunds:&lt;/strong&gt; Rückerstattungen laufen automatisiert und nahezu in Echtzeit ab.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Kreativität für alle&lt;/h3&gt;
&lt;p&gt;Kreative KI wird massentauglich:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Nutzer erstellen, bearbeiten und personalisieren Inhalte mit wenigen Anweisungen.&lt;/li&gt;
&lt;li&gt;Eigene Modelle und Stile lassen sich ohne tiefes technisches Wissen einsetzen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Kurz gesagt:&lt;/strong&gt; KI ist 2026 kein separates Feature mehr, sondern eine &lt;strong&gt;stille, handelnde Infrastruktur&lt;/strong&gt;, die Aufgaben übernimmt, physisch unterstützt und genau zugeschnittene Erlebnisse – bei gleichzeitig wachsendem Anspruch an Transparenz, Kontrolle und Vertrauen.&lt;/p&gt;
&lt;h2&gt;Fazit: Der &amp;quot;AI Generalist&amp;quot;&lt;/h2&gt;
&lt;p&gt;Zusammenfassend lässt sich sagen: Die Arbeitswelt 2026 sucht den &lt;strong&gt;AI Generalisten&lt;/strong&gt;. Die Spezialisierung auf eine einzige Programmiersprache oder ein einziges Tool reicht oft nicht mehr aus. Gefragt sind Fachkräfte, die:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Orchestrieren:&lt;/strong&gt; KI-Tools und autonome Agenten zu einem funktionierenden Ganzen verknüpfen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Brücken bauen:&lt;/strong&gt; Die Verbindung zwischen physischer Hardware (Robotik &amp;amp; Consumer Devices) und digitaler Intelligenz herstellen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Verantwortung übernehmen:&lt;/strong&gt; Nachhaltigkeit nicht als Last, sondern als Optimierungsproblem verstehen und Governance-Strukturen etablieren.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Es bleibt also spannend. Die Werkzeuge ändern sich radikal, aber die Notwendigkeit für kreative Problemlösung war noch nie so groß wie heute. Packen wir es an!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">n8n 2.0 steht vor der Tür - Jetzt das eigene System vorbereiten!</title>
        <link href="https://muench.dev/post/2025-11-n8n-2-0-steht-vor-der-tuer"/>
        <id>https://muench.dev/post/2025-11-n8n-2-0-steht-vor-der-tuer</id>
        <published>2025-11-29T17:41:00+00:00</published>
        <updated>2025-11-29T23:01:58+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Die Spatzen pfeifen es bereits von den Dächern der Automatisierungs-Community: &lt;strong&gt;n8n 2.0 steht vor der Tür!&lt;/strong&gt; Kürzlich wurde im offiziellen Forum die &lt;a href=&quot;https://community.n8n.io/t/announcing-n8n-version-2-0-coming-soon/226475&quot;&gt;neue Version angekündigt&lt;/a&gt;, und wie bei jedem Major-Release bringt auch dieses Update einige spannende Neuerungen, aber auch &lt;strong&gt;Breaking Changes&lt;/strong&gt; mit sich.&lt;/p&gt;
&lt;p&gt;Die Beta soll bereits am &lt;strong&gt;8. Dezember&lt;/strong&gt; zur Verfügung stehen. Grund genug, sich jetzt schon mit den Änderungen vertraut zu machen und die eigene Infrastruktur vorzubereiten.&lt;/p&gt;
&lt;h2&gt;Vorbereitung ist alles: Der Migration Report&lt;/h2&gt;
&lt;p&gt;Ein Major-Update kann furchteinflößend sein, besonders wenn komplexe Workflows davon abhängen. Das Team von n8n hat hier jedoch mitgedacht. Es gibt einen integrierten &lt;strong&gt;Migration Report&lt;/strong&gt; direkt im Backend deiner n8n-Instanz unter &lt;code&gt;Settings -&amp;gt; Migration Report&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/screenshot-2025-11-29_182127.png&quot; alt=&quot;Der praktiwsche Migration Reoort im n8n Backend&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Dieser Report ist dein bester Freund für das Update. Er prüft deine vorhandenen Workflows und Einstellungen auf Herz und Nieren:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Welche Nodes sind inkompatibel?&lt;/li&gt;
&lt;li&gt;Welche Nodes sind von Änderungen betroffen?&lt;/li&gt;
&lt;li&gt;Welche Konfigurationen müssen angepasst werden?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/screenshot-2025-11-29_182147.png&quot; alt=&quot;Einzelne Nodes werden geprüft&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Ich empfehle jedem, diesen Report so früh wie möglich zu konsultieren, um böse Überraschungen beim Update zu vermeiden. Eine detaillierte Übersicht der Änderungen findest du auch in der offiziellen &lt;a href=&quot;https://docs.n8n.io/2-0-breaking-changes/&quot;&gt;Dokumentation zu den Breaking Changes&lt;/a&gt;.&lt;/p&gt;
&lt;h2&gt;Wichtige Breaking Changes im Überblick&lt;/h2&gt;
&lt;p&gt;Neben den architektonischen Änderungen gibt es einige harte Schnitte, die vor allem Self-Hoster betreffen. Hier sind die wichtigsten Punkte aus der Dokumentation:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Kein MySQL/MariaDB Support mehr:&lt;/strong&gt; n8n 2.0 stellt die Unterstützung für MySQL und MariaDB als Backend-Datenbank ein. Wenn du diese noch nutzt, ist jetzt der Zeitpunkt, auf &lt;strong&gt;PostgreSQL&lt;/strong&gt; zu migrieren. Der MySQL Support war aber auch schon beim 1.0 Release als deprecated markiert worden. Ich persönlich mag Postgres auch viel lieber.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Zugriff auf Environment Variables:&lt;/strong&gt; Aus Sicherheitsgründen können &lt;strong&gt;Code Nodes&lt;/strong&gt; standardmäßig nicht mehr auf Umgebungsvariablen zugreifen. Falls deine Skripte darauf angewiesen sind, musst du dies entweder explizit über die Variable &lt;code&gt;N8N_BLOCK_ENV_ACCESS_IN_NODE=false&lt;/code&gt; erlauben oder deine Workflows anpassen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Wegfall der Tunnel-Option:&lt;/strong&gt; Die Start-Option &lt;code&gt;--tunnel&lt;/code&gt;, die oft für schnelle lokale Tests mit Webhooks genutzt wurde, ist ersatzlos gestrichen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Bereinigung alter Nodes:&lt;/strong&gt; Nodes für Dienste, die bereits eingestellt wurden oder veraltet sind, wurden nun endgültig aus dem Core entfernt.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Eine große Änderung für mein Setup: Externe Task Runners&lt;/h2&gt;
&lt;p&gt;Eine der signifikantesten architektonischen Änderungen in n8n 2.0 betrifft die Ausführung von Code. Der interne Task Runner, der bisher &amp;quot;out-of-the-box&amp;quot; Python oder JavaScript Code ausgeführt hat, wird in Version 2.0 nicht mehr standardmäßig aktiv sein.&lt;/p&gt;
&lt;p&gt;Stattdessen setzt n8n nun auf &lt;strong&gt;externe Task Runners&lt;/strong&gt;. Das bedeutet, dass Code in einer Sandbox ausgeführt wird, die strikt von der n8n-Hauptinstanz getrennt ist. Das hat zwei große Vorteile:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Sicherheit:&lt;/strong&gt; Die Angriffsfläche für Hacks wird drastisch minimiert. Standardmäßig sind Nodes für &amp;quot;Git&amp;quot; oder Code-Execution eingeschränkt, sodass beispielsweise kein unkontrollierter Zugriff auf das Dateisystem mehr möglich ist. Natürlich lässt sich das über Einstellungen wieder lockern, wenn man genau weiß, was man tut.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Flexibilität:&lt;/strong&gt; Benötigst du spezielle Python-Bibliotheken oder Node-Pakete? Du kannst dir einfach dein eigenes Docker-Image für den Task Runner erstellen und hast genau die Umgebung, die du brauchst, ohne die Hauptinstanz aufzublähen.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Mein Setup: Task Runners im Worker Mode&lt;/h2&gt;
&lt;p&gt;Da ich mein n8n-Setup im &lt;strong&gt;Worker Mode&lt;/strong&gt; betreibe, um die Last besser zu verteilen, musste ich meine docker-compose.yaml etwas stärker anpassen. Die Herausforderung hierbei ist, dass nicht nur der Haupt-Container (Webhook-Prozessor), sondern auch die Worker Zugriff auf Task Runner benötigen.&lt;/p&gt;
&lt;p&gt;In meiner aktuellen Konfiguration, mit der ich mich auf die Umstellung vorbereite, habe ich deshalb dedizierte Task Runner Container für den Hauptprozess (n8n) und für den Worker (n8n_worker) definiert.&lt;/p&gt;
&lt;p&gt;Hier ist ein Einblick in meine docker-compose.yaml, wie sie aktuell läuft:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-yaml hljs yaml&quot; data-lang=&quot;yaml&quot;&gt;&lt;span class=&quot;hljs-attr&quot;&gt;x-n8n-task-runners:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&amp;amp;service-task-runners-n8n&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;image:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;ghcr.io/n8n-io/runners:1.122.1&lt;/span&gt;

&lt;span class=&quot;hljs-attr&quot;&gt;x-n8n:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&amp;amp;service-n8n&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;image:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;ghcr.io/n8n-io/n8n:1.122.1&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;networks:&lt;/span&gt;  
    &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;default&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;user:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;node&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;volumes:&lt;/span&gt;  
    &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n-data:/home/node/.n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&quot;./data:/data&quot;&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;

&lt;span class=&quot;hljs-attr&quot;&gt;services:&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;n8n:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;ports:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-number&quot;&gt;0.0&lt;/span&gt;&lt;span class=&quot;hljs-number&quot;&gt;.0&lt;/span&gt;&lt;span class=&quot;hljs-number&quot;&gt;.0&lt;/span&gt;&lt;span class=&quot;hljs-string&quot;&gt;:5678:5678&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;redis:&lt;/span&gt;  
        &lt;span class=&quot;hljs-attr&quot;&gt;condition:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;service_healthy&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;n8n_worker:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_worker&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;command:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;worker&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;--concurrency=6&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;environment:&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;N8N_WORKER_MODE:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&quot;true&quot;&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;OFFLOAD_MANUAL_EXECUTIONS_TO_WORKERS:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&quot;true&quot;&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;n8n_main_task_runners:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-task-runners-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_task_runners&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;environment:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_TASK_BROKER_URI=http://n8n:5679&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_MAX_CONCURRENCY=5&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_AUTO_SHUTDOWN_TIMEOUT=15&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_NATIVE_PYTHON_RUNNER=&quot;true&quot;&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;n8n_worker_task_runners:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-task-runners-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_worker_task_runners&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;environment:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_TASK_BROKER_URI=http://n8n_worker:5679&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_MAX_CONCURRENCY=5&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_AUTO_SHUTDOWN_TIMEOUT=15&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_NATIVE_PYTHON_RUNNER=&quot;true&quot;&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_worker&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;redis:&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_redis&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;image:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;redis:8-alpine@sha256:5013e94192ef18a5d8368179c7522e5300f9265cc339cadac76c7b93303a2752&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;networks:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;default&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;volumes:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;redis-data:/data&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;healthcheck:&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;test:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;['CMD',&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;'redis-cli'&lt;/span&gt;&lt;span class=&quot;hljs-string&quot;&gt;,&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;'ping'&lt;/span&gt;&lt;span class=&quot;hljs-string&quot;&gt;]&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;interval:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;5s&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;timeout:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;5s&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;retries:&lt;/span&gt; &lt;span class=&quot;hljs-number&quot;&gt;10&lt;/span&gt;

&lt;span class=&quot;hljs-attr&quot;&gt;volumes:&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;n8n-data:&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;redis-data:&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;In meiner &lt;code&gt;.env&lt;/code&gt; Datei habe ich erstmal folgende Variablen zusätzlich eingetragen:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Task Runners&lt;/span&gt;
N8N_RUNNERS_AUTH_TOKEN=&amp;lt;xxxxxxxxxx&amp;gt;
N8N_RUNNERS_ENABLED=&lt;span class=&quot;hljs-literal&quot;&gt;true&lt;/span&gt;
N8N_RUNNERS_MODE=external
N8N_RUNNERS_BROKER_LISTEN_ADDRESS=0.0.0.0

&lt;span class=&quot;hljs-comment&quot;&gt;# Auth&lt;/span&gt;
N8N_SKIP_AUTH_ON_OAUTH_CALLBACK=&lt;span class=&quot;hljs-literal&quot;&gt;false&lt;/span&gt;

&lt;span class=&quot;hljs-comment&quot;&gt;# Git&lt;/span&gt;
N8N_GIT_NODE_DISABLE_BARE_REPOS=&lt;span class=&quot;hljs-literal&quot;&gt;false&lt;/span&gt;

N8N_RESTRICT_FILE_ACCESS_TO=/data

&lt;span class=&quot;hljs-comment&quot;&gt;# Allow all excluded nodes&lt;/span&gt;
NODES_EXCLUDE=&lt;span class=&quot;hljs-string&quot;&gt;&quot;[]&quot;&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Die Einstellungen sind jetzt erstmal so gewählt, dass meine Workflows weiterlaufen können nach dem Update. Ich habe eine paar wenige Nodes die direkte Bash-Befehle ausführen. Diese arbeiten aber bei mir sowieso nur im Container im Verzeichnis &lt;code&gt;/data&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Wie ihr seht, habe ich n8n_main_task_runners und n8n_worker_task_runners definiert, die jeweils via &lt;code&gt;N8N_RUNNERS_TASK_BROKER_URI&lt;/code&gt; mit ihrem entsprechenden n8n-Service verbunden sind. Ob dies die absolut optimale Lösung für jedes Szenario ist, wird sich in der Praxis zeigen, aber es ist ein funktionierender Weg, um die neue Architektur im Worker-Mode abzubilden.&lt;/p&gt;
&lt;h2&gt;Neue Features: Mehr Komfort für Workflow-Builder&lt;/h2&gt;
&lt;p&gt;Neben den technischen Änderungen unter der Haube gibt es auch sichtbare Verbesserungen, die das Arbeiten mit n8n angenehmer machen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Verbesserte Canvas:&lt;/strong&gt; Der Workflow-Editor (Canvas) erhält einen frischen Look and Feel, der moderner und aufgeräumter wirkt (Leider habe ich bisher keinen Screenshot gesehen).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Neue Sidebar:&lt;/strong&gt; Die Seitenleiste wurde überarbeitet, um die Navigation und den Zugriff auf wichtige Funktionen zu verbessern. Ich bin gespannt ob die Sidebar auch in der Community-Version eine Funktion bekommt,&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Autosave (Bald verfügbar):&lt;/strong&gt; Endlich! Eines der am meisten gewünschten Features kommt. Das automatische Speichern von Workflows wird kurz nach dem Stable-Release eingeführt. Nie wieder verlorene Arbeit durch vergessene Klicks auf &amp;quot;Speichern&amp;quot;. Das Feature klingt einfach, ist es aber im Hintergrund nicht.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Der Schritt zu n8n 2.0 ist ein wichtiger Meilenstein, der vor allem in puncto Sicherheit und Stabilität Verbesserungen bringt. Wer komplexe Setups betreibt, sollte die Zeit bis zum Release nutzen, um seine docker-compose Konfiguration anzupassen und die Migrations-Tools zu nutzen.&lt;/p&gt;
&lt;p&gt;So ein richtiges Fazit kann es jetzt auch noch nicht geben da die Version ja noch nicht da ist.&lt;br /&gt;
Ich bin gespannt auf den 8. Dezember!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Rückblick auf den 53. Magento Stammtisch Rhein-Main</title>
        <link href="https://muench.dev/post/2025-11-rueckblick-auf-den-53-magento-stammtisch-rhein-main"/>
        <id>https://muench.dev/post/2025-11-rueckblick-auf-den-53-magento-stammtisch-rhein-main</id>
        <published>2025-11-21T11:49:00+00:00</published>
        <updated>2025-11-23T11:27:40+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Es war mal wieder soweit: Die Magento Community im Rhein-Main-Gebiet traf sich zur 53. Ausgabe des Stammtischs. Diesmal hatte &lt;a href=&quot;https://e3n.de/&quot;&gt;e3n&lt;/a&gt; nach Mainz eingeladen, und die Räumlichkeiten wurden freundlicherweise von der &lt;a href=&quot;https://www.thieleklose.de&quot;&gt;Thiele &amp;amp; Klose GmbH&lt;/a&gt; zur Verfügung gestellt.&lt;/p&gt;
&lt;p&gt;Was mich besonders gefreut hat: Der Stammtisch war richtig gut besucht. Einige Teilnehmer hatten auch ein weite Anreise auf sich genommen. Das zeigt, dass das Format und der persönliche Austausch nach wie vor extrem wertvoll sind.&lt;/p&gt;
&lt;p&gt;Ein großes Dankeschön vorab auch für das Catering. Es gab leckeres Essen und Getränke – etwas, das ich in der heutigen Zeit keineswegs als selbstverständlich ansehe. So gestärkt ging es dann an die zwei Hauptthemen des Abends.&lt;/p&gt;
&lt;h2&gt;Performance-Tuning aus der Sicht des Hosters&lt;/h2&gt;
&lt;p&gt;Den Anfang machte &lt;a href=&quot;https://www.linkedin.com/in/jonas-h%C3%BCnig-a2a26310b/&quot;&gt;Jonas Hünig&lt;/a&gt; von &lt;a href=&quot;https://maxcluster.de/&quot;&gt;maxcluster&lt;/a&gt;. Sein Thema &amp;quot;Performance-Tuning für Magento&amp;quot; ist ein Dauerbrenner, aber Jonas hat einen sehr interessanten Blickwinkel gewählt: die Perspektive des Hosters.&lt;/p&gt;
&lt;p&gt;Langsame Shop-Instanzen sind frustrierend – für Kunden, Händler und Entwickler. Jonas zeigte auf, wie man typische Flaschenhälse systematisch aufspürt und analysiert. Besonders gut gefiel mir, dass der Vortrag nicht als reine Verkaufsveranstaltung für maxcluster angelegt war. Die gezeigten Methoden zur Diagnose und die Stellschrauben bei den Serverdiensten waren so aufbereitet, dass sie auch für Hostings außerhalb von maxcluster funktionieren.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/pxl_20251119_190006051.jpg&quot; alt=&quot;MySQL Perormance Monitoring&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Dabei ging es erfreulich tief in die Technik: Jonas sprach auch &lt;strong&gt;Linux Kernel spezifische Optimierungen&lt;/strong&gt; an und zeigte live den Einsatz von &lt;code&gt;strace&lt;/code&gt; zur Analyse. Mir persönlich hat dieser sehr technische Deep-Dive extrem gut gefallen.&lt;/p&gt;
&lt;p&gt;Natürlich gab es &amp;quot;on top&amp;quot; noch ein paar Insider-Infos zum speziellen Setup bei maxcluster und wie man dort bestimmte Probleme noch effizienter lösen kann.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Kleines Highlight am Rande:&lt;/strong&gt; maxcluster hatte für jeden Teilnehmer ein kleines Geschenk dabei. Danke für das nette kleine LED-Lampe! Diese hat bei mir zuhause schon seinen Platz gefunden und ist aufgebaut.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2&gt;Hype oder echter Wandel? Wie KI das Coding verändert&lt;/h2&gt;
&lt;p&gt;Der zweite Speaker war &lt;a href=&quot;https://www.linkedin.com/in/tniebergall/&quot;&gt;Tobias Niebergall&lt;/a&gt; von e3n. Sein Vortrag knüpfte nahtlos an Themen an, die mich selbst in den letzten Wochen &lt;a href=&quot;/categories/ki&quot;&gt;hier im Blog&lt;/a&gt; intensiv beschäftigt haben. Unter dem Titel &lt;em&gt;&amp;quot;Hype oder echter Wandel? Wie KI das Coding wirklich verändert&amp;quot;&lt;/em&gt; ging es um den Begriff &lt;strong&gt;Vibe Coding&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/pxl_20251119_200059841.mp.jpg&quot; alt=&quot;Tobias startet mit seinem Vibe Coding Vortrag&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Tobias zeigte, dass KI-gestützte Entwicklung weit mehr ist als nur Code-Vervollständigung. Es geht um den Aufbau smarter Workflows. Anhand von Tools wie &lt;strong&gt;Claude&lt;/strong&gt;, &lt;strong&gt;MCP-Servern&lt;/strong&gt; (Model Context Protocol) und &lt;strong&gt;n8n&lt;/strong&gt; demonstrierte er, wie man sein Entwickler-Team produktiver machen kann. Auch die Sicherheit in Verbindung mit AI-Tools war ein Thema.&lt;/p&gt;
&lt;p&gt;Die Kernpunkte waren praxisnah:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Wie setze ich KI gezielt ein, um im &amp;quot;Flow&amp;quot; zu bleiben?&lt;/li&gt;
&lt;li&gt;Automatisierung von repetitiven Aufgaben (etwas, das ich mit meinen Agenten-Experimenten nur bestätigen kann).&lt;/li&gt;
&lt;li&gt;Wie man Ideen viel schneller in funktionierende Prototypen und Lösungen umsetzt.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ziel war es, den Entwicklern im Raum die Berührungsängste zu nehmen und Wege zu zeigen, wie man KI schrittweise in den eigenen Alltag integriert.&lt;/p&gt;
&lt;h2&gt;Wilde Diskussionen zum Abschluss&lt;/h2&gt;
&lt;p&gt;Wie es sich für einen guten Stammtisch gehört, war nach den Vorträgen noch lange nicht Schluss. Gerade der Vortrag von Tobias hat den Nerv der Zeit getroffen und eine ordentliche Diskussion entfacht.&lt;/p&gt;
&lt;p&gt;Es ging thematisch einmal querbeet:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Ausbildung:&lt;/strong&gt; Lernen Junioren noch richtig Coden, wenn die KI alles übernimmt?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Software-Qualität:&lt;/strong&gt; Wird der Code besser oder fluten wir unsere Repositories mit KI-generiertem Spaghetti-Code?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Nachhaltigkeit:&lt;/strong&gt; Wie sieht eigentlich der CO2-Fußabdruck aus, wenn wir für jede kleine Funktion ein LLM befeuern?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Security &amp;amp; WAFs:&lt;/strong&gt; Auch der Einsatz von Web Application Firewalls wurde diskutiert. Hier hatte &lt;a href=&quot;https://www.linkedin.com/in/bj%C3%B6rn-kraus-1a588418/&quot;&gt;Björn Kraus&lt;/a&gt; wertvolle Tipps zum Umgang mit &lt;code&gt;mod_security&lt;/code&gt; parat und wies darauf hin, dass viele dieser Best Practices bereits in seinem &lt;a href=&quot;https://github.com/PHOENIX-MEDIA/magento2-helm&quot;&gt;Magento Helm-Chart&lt;/a&gt; implementiert sind (siehe auch: &lt;a href=&quot;https://github.com/PHOENIX-MEDIA/modsecurity-crs-proxy&quot;&gt;modsecurity-crs-proxy&lt;/a&gt;).&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Es war – im positivsten Sinne – ganz schön wild. Aber genau das macht für mich einen Stammtisch aus: Unterschiedliche Meinungen, leidenschaftliche Debatten und am Ende geht man mit neuen Impulsen nach Hause.&lt;/p&gt;
&lt;p&gt;Danke an e3n, Thiele &amp;amp; Klose, maxcluster, die Speaker und alle, die da waren. Es war ein gelungener Abend!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
</feed>
