134 Was moderne KI im Shop wirklich leistet...

Shownotes

In dieser insights!-Folge spreche ich mit Nils Breitmann, Senior Director AI bei Intershop, darüber, wie KI den B2B-E-Commerce neu definiert. Wir tauchen ein in die Frage, warum Kunden immer weniger „suchen“ und immer mehr „sprechen“, wie KI-Agenten operative Aufgaben übernehmen und was das für Teams und Prozesse bedeutet.

  1. Natürliche Sprache wird die neue Schnittstelle im B2B. Käufer wollen Probleme formulieren, nicht Produktfilter bedienen – und KI ermöglicht genau diese neue Art der Interaktion.

  2. KI-Agenten übernehmen echte Arbeit, nicht nur Antworten. Von Produktrecherche bis Promotion-Erstellung: KI entlastet Teams operativ und macht Fachwissen skalierbar nutzbar.

  3. Teams der Zukunft bestehen aus Menschen und Agenten. Die Kombination aus menschlicher Steuerung und KI-basierter Umsetzung wird zum neuen Normal – effizienter, schneller und widerstandsfähiger.

https://www.linkedin.com/in/joubinrahimi/ https://www.linkedin.com/company/synaigy https://www.facebook.com/synaigy https://www.xing.com/companies/synaigy https://twitter.com/synaigy https://www.instagram.com/synaigy https://www.timetoact-group.com/ https://www.linkedin.com/company/timetoactgroup/ https://www.linkedin.com/in/nils-breitmann/ https://www.intershop.com/de/

Transkript anzeigen

00:00:00: Grandios, dass ihr wieder dabei seid

00:00:08: zu einer neuen Folge von insights!

00:00:10: Mein Name ist Joubin, Joubin Rahimi und heute dabei Nils Breitmann,

00:00:15: Senior Director AI der Intershop.

00:00:18: Nils, schön, dass du den weiten Weg doch für euch und für dich hierher

00:00:22: gemacht hast nach Dortmund.

00:00:23: Genau, ich bin aus Jena gekommen.

00:00:25: Dort sitzt der Hauptsitz von Intershop.

00:00:28: Da machst du zwar deine Sätze zu dir und Das kann eine Rolle sagen?

00:00:30: Das heißt erst mal, ein Director AI klingt mega.

00:00:33: Rolle will ich auch haben.

00:00:35: Genau, also ich kümmere mich bei Intershop speziell um die Themen AI.

00:00:39: Einmal, wie wir das in unseren Produkten einsetzen, aber auch, wie wir überhaupt

00:00:43: selber Intershop intern AI einsetzen, um die Prozesse zu automatisieren.

00:00:48: Das sind natürlich zwei total spannende Umfelder, wo man da

00:00:53: richtig rein drillen kann.

00:00:54: Wir haben vor überm Jahr jetzt auch extra diese Rolle neu geschaffen, weil gab es

00:00:59: nicht, um einfach diese Wichtigkeit des Themas auch Rechnung zu tragen.

00:01:03: Wir haben gelernt, wenn man die normalen Teams nimmt, das

00:01:08: Backlog ist immer voll, die Teams sind immer beschäftigt, auch

00:01:11: mit Problem-Tickets, Feature-Entwicklungen, dies und das.

00:01:15: Und wenn man sich nicht dediziert wirklich diesem Thema annimmt, dann kommt

00:01:19: man eben nur sehr langsam vorwärts.

00:01:21: Und das ist direkt schon Learning für jeden draußen, der die Teams aufstellt.

00:01:27: Einfach neben dem Tagesgeschäft, das nebenher zu machen, können die

00:01:30: allerwenigsten Mitarbeitende.

00:01:32: Und da dann zu sagen: Ich habe jemanden, der sich voll darauf konzentriert,

00:01:36: ist wahrscheinlich mega sinnvoll.

00:01:38: Und das braucht natürlich dann die Unterstützung vom Vorstand.

00:01:40: Anderes geht so was nicht.

00:01:42: Aber letztes Mal war Markus auch Director AI?

00:01:46: Er war COO, Markus Dränert, und hat aber unter ihm dann auch meine Rolle schon.

00:01:51: Okay. Ich habe schon gewitzelt.

00:01:52: Er hatte sich dafür stark gemacht. Er hat das gesehen.

00:01:55: Ich habe schon gewitzelt.

00:01:56: Der Letzte, der hier war, wurde CEO.

00:01:59: Nein, nein, nein.

00:02:00: Da können wir schon gratulieren.

00:02:03: Es ist ja auch toll, dass wir hier einfach noch mal auch dich empfangen können,

00:02:08: zweite Personen von Intershop.

00:02:13: Es gibt ja zwei, drei Aspekte.

00:02:17: Es gibt viel mehr Aspekte, aber zwei, drei, die wir ja heute beleuchten.

00:02:21: Und eines der diesjährigen Trends in 2026 ist ja, dass wir sagen:

00:02:27: Wie kann was gefunden werden?

00:02:30: Wie verändert sich das?

00:02:31: Ich würde gerne mal diese Kette ein bisschen durchspielen.

00:02:34: Das heißt, in Bezug auf Geo, also Generative

00:02:40: Search Engine Optimization oder Generative AI Optimization,

00:02:44: Wie stehst du dem gegenüber?

00:02:47: Ist das ein großes Thema für euch oder weniger groß?

00:02:50: Wir als Intershop haben den speziellen Fokus auf B2B, auf B2B-E-Commerce.

00:02:56: Wir haben da eine Plattform, die wir hauptsächlich für

00:03:01: Großhändler und Hersteller bereitstellen.

00:03:03: Wir haben auch B2C.

00:03:04: Also letztendlich machen wir schon immer B2B und B2C und jetzt gibt es natürlich

00:03:08: auch viele Fälle, B2B2C oder B2B-Händler, die nebenbei noch B2C machen.

00:03:13: Wir können auch B2C, aber unser Hauptfokus ist ganz klar B2B.

00:03:17: Und wir haben eben sehr stark auch darüber nachgedacht, wie dieses geo-Thema

00:03:23: gerade in B2B trifft.

00:03:25: Und meine Meinung ist, man muss das sehr differenziert betrachten, weil B2B ist

00:03:30: auch wieder ein breites Feld, je nachdem, was wirklich die Produkte sind.

00:03:36: Es gibt wirklich Produkte, die sind …

00:03:41: Also es geht davon hin, von Büromaterialien bis hin zu

00:03:46: Dämmwolle oder wir haben Saatgut.

00:03:48: Wir haben Kunden, die das machen.

00:03:51: Sehr verschieden.

00:03:52: Und der Unterschied in B2B ist so ein bisschen, man hat manchmal komplexe

00:03:56: Produkte, manchmal auch komplexe Prozesse, also mit Powel Workflows oder wir sehen so

00:04:02: Dinge, dass es schon Rahmenverträge gibt und dann dürfen die Einkäufe nur Dinge

00:04:07: sehen, die auch in diesem Rahmenvertrag sind.

00:04:09: Also das sind so komplexe Dinge.

00:04:12: Und natürlich der Hauptunterschied in B2B ist, man hat viele Bestandskunden.

00:04:17: Es ist gar nicht so sehr dieses Neukundengeschäft, wo vielleicht der Fall

00:04:21: aufkommt, dass jemand jetzt anfängt, im ChatGPT zu suchen und nicht mehr im

00:04:25: Google, sondern man hat natürlich diese Beziehungen.

00:04:28: Das heißt, man hat definitiv das Thema, dass durch diese

00:04:34: Large-Language-Models, GenAI, dass die Leute wieder drauf gekommen sind, dass man

00:04:38: einfach sein Problem auch in natürlicher Sprache formulieren kann.

00:04:42: Das ist jetzt eigentlich der Hauptunterschied.

00:04:45: Vielleicht, wir wurden halt jahrelang trainiert.

00:04:48: Wir wussten, wie man Google benutzt.

00:04:50: Man wusste vielleicht sogar mit Plus und Minus vor den Wörtern,

00:04:53: das gezielt einzusetzen.

00:04:55: Aber das ist eigentlich nicht der natürliche Weg, wie Menschen Geschäfte

00:04:58: machen, sondern seit den Jahrtausenden, würde ich sagen, hat Verkäufer mit Käufer

00:05:01: einfach irgendwie geredet, vielleicht sein Problem erläutert, was er hatte und dann

00:05:07: mir die passenden Produkte gefunden.

00:05:09: Und das sehe ich jetzt als den Haupttrend, weil

00:05:13: durch ChatGPT kommt einfach die Erwartungshaltung wieder rein und

00:05:18: die Leute denken: Das muss doch gehen.

00:05:20: Dann habe ich zwei Fragen dazu.

00:05:23: Und zwar anknüpfen wir an den Verkäufer redet mit Einkäufer oder Käufer

00:05:28: und die haben eine Konversation.

00:05:30: A: Brauchen wir überhaupt noch Webseiten, wenn das die Thematik ist?

00:05:36: Ich überspitze das mal.

00:05:37: Die Frage wurde mir neulich auch mal gestellt.

00:05:40: Und B: Müsste der Content dann nicht komplett anders dargestellt

00:05:45: werden, wenn das so wichtig ist?

00:05:46: Ich habe verstanden, B2B sagt ihr, das ist nicht die höchste Prio,

00:05:50: aber wenn man sagt, der hat eine Prio, wie müsste man die Webseite

00:05:54: ändern, wenn es noch eine gibt?

00:05:56: Ich habe ja zwei geteilt, war ja die Frage.

00:05:58: Genau, meine Meinung ist, man kann es ja auf beiden Seiten machen.

00:06:01: Man kann jetzt irgendwie seine Inhalte so optimieren, dass sie jetzt

00:06:04: in ChatGPT hier auftauchen.

00:06:06: Oder man kann das, was wir auch machen, man baut einen Co-Pilot, einen Assistenten

00:06:11: in den Shop ein und der beantwortet dann dort die Frage und empfiehlt die richtigen

00:06:15: Produkte oder erklärt, wie das Produkt einzusetzen ist.

00:06:20: Genau, was war jetzt noch mal die Frage?

00:06:24: Einmal überspitzt, gibt es noch Webseiten? Genau, ja.

00:06:29: Wir hatten letztens erst geredet mit einem Elektro-Großhändler und der sagt, seine

00:06:38: Elektriker, die schicken seinem Serviceteam eh oft eine WhatsApp mit einem

00:06:43: Foto und sagen, ich brauche jetzt wieder so einen Sicherungskasten,

00:06:45: wie der ja auf dem Bild.

00:06:46: Und das zeigt ja jetzt schon, dass du den klassischen Shop einfach

00:06:50: nicht unbedingt brauchst.

00:06:51: Du brauchst aber jemanden, der das Problem löst und das könnte eventuell auch einfach

00:06:56: so eine Sprachschnittstelle sein, wie jetzt hier ChatGPT+,

00:06:59: wo dann der Handwerker auf der Baustelle oder auf dem Weg zur Baustelle sagt: Ich

00:07:03: brauche noch das und das, und er spricht es einfach rein.

00:07:05: Ich glaube, das möchte ich mal unterstreichen.

00:07:09: Jetzt gab es im letzten Jahr auch einen neuen Standard oder einen Vorschlag für

00:07:12: einen neuen Standard von Anthropic, OpenAI und so weiter, dass man die

00:07:17: MCP-Schnittstelle nicht nur inhaltsbasiert macht, sondern auch die

00:07:20: UI-Funktion mit reinbringt.

00:07:22: Warum ist das so spannend?

00:07:23: Weil dann hast du ja nicht nur die Bots, die miteinander reden, sondern du kannst

00:07:28: es dann ja auch nutzen, Um über WhatsApp beispielsweise, da wird

00:07:33: sicherlich auch mehr reinkommen, zu sagen, okay, dann hast du auch

00:07:36: visuell auf einmal was.

00:07:37: So einen Schaltschrank, hat dein Foto gemacht, reingeschickt und dann kommt

00:07:41: zurück, meintest du so ein, hier ist der Preis und dann hast du einen Teil einer

00:07:45: Anwendung von euch gespeist, beispielsweise.

00:07:48: Finde ich auch super interessant, wobei ich auch sehe, dass jetzt gerade in Firmen

00:07:52: hast du oft auch diese Microsoft-Welt.

00:07:54: Dann ist Microsoft Copilot dann vielleicht schon gesetzt als der Assistent, den die

00:07:58: Mitarbeiter im im Firmenkontext verwenden.

00:08:02: Und dann ist auch eher die Frage: Wie kann man es da rein integrieren?

00:08:05: Und das führt uns zur zweiten Frage: Wenn der Traffic da ist auf der

00:08:09: Webseite, wie verändert es sich?

00:08:11: Und ihr habt ja auf dem Partner-Tag, nicht nur dieses Jahr, im letzten Jahr und auch

00:08:17: nicht nur im vorletzten Jahr eigentlich immer das Thema AI noch

00:08:20: mal gestresst mit Copilot zusammen.

00:08:22: Wo steht ihr denn da so grob und was ist euer Verständnis, wie man Copilot

00:08:27: mit Intershop zusammen nutzen kann?

00:08:30: Wir haben erst mal zwei Co-Pilots, einen für den Käufer und einen

00:08:34: für die Verkäuferseite.

00:08:36: Und der Copilot für die Käuferseite ist erst mal jetzt wie der kleine

00:08:40: Chatbot, der im Shop sitzt.

00:08:43: Man kennt das ja schon Und du ja auch schon vor vielen Jahren, ich glaube, 2018

00:08:48: rum oder '17, da gab es mal so eine Chatbot-Welle,

00:08:52: hat aber nie richtig funktioniert.

00:08:54: Nur das Ding ist, jetzt funktioniert das halt.

00:08:56: Das war auch richtig teuer.

00:08:57: Wir haben das mal für Esprit gemacht.

00:08:58: Automatisierte Beantwortung von E-Mails.

00:09:01: Wir haben über 400 Tage rein investiert, um sechs Cases automatisiert

00:09:06: bearbeiten zu können.

00:09:08: Und hier ist jetzt wirklich das Tolle, dass das nicht mehr ist wie irgendwie eine

00:09:13: Keyword-Suche, die man dann vielleicht in den Chat gibt, sondern ich

00:09:15: kann mein Problem erläutern.

00:09:17: Ich kann sagen, was ich vorhabe.

00:09:19: Ich habe immer das Beispiel, wir haben eine neue Mitarbeiterin, die brauchen eine

00:09:23: Homeoffice-Ausstattung und dann empfiehlt Copilot eben genau das Monitor, das

00:09:27: Dastatur, Maus, was man alles braucht.

00:09:30: Oder wir haben so ein Arbeitsschutzbeispiel.

00:09:34: Da kann ich ja eben sagen, ich brauche einen gelben Bauhelm, der auf deutschen

00:09:38: Baustellen zugelassen ist und dann kann der Co-Pilot in dem erweiterten Wissen

00:09:43: nachschauen, was ist die richtige Norm, die man braucht, und dann mit diesem

00:09:47: Normen als Filter auch die richtigen Produkte heraussuchen.

00:09:50: Was ist das erweiterte Wissen?

00:09:53: Prinzipiell total flexibel.

00:09:55: Es kann sein, wie irgendwie Produktdatenblätter.

00:09:57: In diesem Fall war das eben einfach, wo der Beschreibung dieser Normen oder

00:10:01: einfach die Normen an sich, die man dem mitgibt.

00:10:04: Also technisch wird dann diese Vektorsuche verwendet und dann dieses Rack Retrieval

00:10:09: Augmented Generation, um einfach dem Agenten, dem Large-Language-Model,

00:10:14: noch weiteres Wissen an die Hand zu geben, was er dann zur Beantwortung

00:10:18: der Frage verwenden kann.

00:10:19: Ohne, dass man es ja selber promptet, sondern dass er es jetzt smart hinzufügt.

00:10:23: Genau.

00:10:24: Und auch nicht, dass das jetzt aufwendig trainiert werden musste vorher.

00:10:28: Das ist auch so ein Ding.

00:10:30: Im AI kommt der oft der Zusammenhang, weil früher war es halt so, als man noch

00:10:34: klassische Maschinen Learning Models, die mussten halt immer trainiert werden.

00:10:38: Aber jetzt ist es so, man hat dieses generische Model, GPT, 4.

00:10:41: 0-mini, nehmen wir jetzt zum Beispiel, das ist fertig trainiert.

00:10:45: Das hat Open AI für uns gemacht in einem aufwendigen Prozess und

00:10:48: einem teuren Prozess.

00:10:50: Das kann keiner selbst machen, aber trotzdem, das enthält

00:10:54: dieses ganze Weltwissen.

00:10:55: Aber natürlich sind jetzt nicht unbedingt die Spezialsachen drin, vielleicht dieses

00:10:58: B2B-Großhandler oder so oder Herstellers.

00:11:01: Das ist die Käuferseite.

00:11:02: Was macht ihr denn bei der Verkäuferseite mit Copilot?

00:11:06: Dort unterstützen wir eben den E-Commerce-Manager oder Partner

00:11:09: Content-Retaktor auch mit dem Copilot.

00:11:11: Also es gibt zum Beispiel dieser Fall, wo ich sage,

00:11:17: Intershop hat eine sehr ausgefeilte Promotion-Funktionalität für

00:11:21: Marketing-Promotions, ist aber auch sehr viele Screens, durch

00:11:25: die man klicken muss und das anzulegen.

00:11:27: Jetzt kam auch von Händlern, die das gerade nicht so oft benutzen, und sagen:

00:11:30: Das würden wir gerne einfacher haben, und die

00:11:33: sagen: Macht doch einfach hier und nimm doch den Copilot,

00:11:36: und dann sage ich eben einfach in Worten: Lege eine Promotion an mit 10% auf

00:11:39: alle Monitore und Promotion Code X.

00:11:41: Und dann benutzt der Copilot im Hintergrund so ein

00:11:46: Tool, nennt man das ja, diese APIs, und kann die Promotion anlegen.

00:11:50: Das ist super.

00:11:51: Das ist ein Fall.

00:11:53: Und dann haben wir diesen Copilot für Händler dann eben noch verschiedene

00:11:57: Spezialagenten eingebaut.

00:12:00: Zum Beispiel gibt es den Content Agent, der Produktinformationen anreichern kann.

00:12:05: Oder es gibt den Localization Agent, der es dann übersetzen kann.

00:12:08: Wir arbeiten gerade an einem Pricing Agent, der jetzt auch Preisinformationen

00:12:15: analysiert und dann Empfehlungen geben kann: Hier bei diesem Produkt bist du

00:12:19: vielleicht jetzt über Marktpreis oder zu weit unter.

00:12:21: Du verschwendest hier Marge.

00:12:24: Diese Dinge, die für ein Mensch wirklich sehr aufwendig wären.

00:12:29: Natürlich kann jeder hingehen, Produktdaten nehmen, die

00:12:32: Produktdatenplatte raussuchen, die Informationen rausziehen, reinschreiben.

00:12:36: Da ist man bestimmt lange beschäftigt und dieser Partner Content Agent, der macht

00:12:42: dann vielleicht ein Produkt in 30 Sekunden.

00:12:44: Recherchiert, der Hersteller lädt die Datenplatte

00:12:47: runter, liest die, erstellt die Beschreibungen, Attribute sauber.

00:12:52: Das ist super mächtig, weil ihr dann nicht nur sagt, Okay, so

00:12:57: könntest du was anlegen, sondern das System, der Agent, tut es.

00:13:01: Und warum ist das so mächtig?

00:13:03: Das möchte ich noch mal unterstreichen.

00:13:05: Häufig begegnen wir uns in den Cases immer mit dem Thema: Dann fasst man das zusammen

00:13:10: und ich habe eine Information, wie was gemacht wird.

00:13:12: Nein, der Agent macht das und das ist so mächtig, weil neue Mitarbeiter, auch

00:13:18: Mitarbeitende, die müssen das nicht direkt lernen.

00:13:21: Die können gleich instant wirken.

00:13:23: Sie können auch ihre Idee spielen.

00:13:24: Nehmen wir mal diese Coupon-Rabatt-Idee, zu sagen: Ich würde

00:13:28: ganz gerne auf alle Monitore in dem Zeitraum, außer Kunden, die mehr

00:13:33: als 5 Millionen gekauft haben, die bekommen das dann so.

00:13:37: Und wenn der Preis dann vertraglich anders festgelegt

00:13:45: ist, dann wählen wir noch mal jenes.

00:13:46: Das ist ja hochkomplex und das können wir ganz gut formulieren

00:13:51: und dann ist es ja auch zügig drin.

00:13:53: Also zwei Sachen: Einmal, wer Intershop nicht kennt, da seid ihr wirklich mega

00:13:57: stark, was ihr da machen könnt und du musst es ja nicht herumentwickeln.

00:14:02: Das ist cool.

00:14:04: Und jetzt kann man es auch noch viel schneller einfordern.

00:14:07: Wir haben auch einige Intershop-Kunden-Auswahl, da sind ja viele

00:14:10: Mitarbeitende, die sind ein bisschen älter, die sind auch vor der Rente.

00:14:15: Das ist auch wirklich so ein Ding, dass dieses Wissen nicht verloren geht, dass

00:14:18: man es eher vorher noch irgendwo reinpackt, auch in diesen

00:14:21: Copilot-Verkäufer, dieses ganze Verkäuferfachwissen.

00:14:24: Das muss irgendwo abgelegt sein und es ist ja gar nicht mal so ein Drama.

00:14:29: Es kann ja unstrukturiert irgendwo stehen.

00:14:31: Die Large-Language-Models kommen ja damit klar.

00:14:33: Man kann es ja trotzdem indizieren.

00:14:35: Oder man kann es einfach reinsprechen.

00:14:37: Stimmt, auch super.

00:14:40: Ein interessanter Gedanke ist auch, wie sich

00:14:43: dann überhaupt die Arbeitswelt verändern wird.

00:14:45: Es gibt ja so auch die Theorien, dass in Zukunft wird es eher so Teams geben aus

00:14:49: Menschen und Agenten, dass man sagt, man hat zwei Menschen und vielleicht

00:14:54: zehn Agenten, die die Aufgabe machen.

00:14:56: Zwei Menschen noch, dass auch mal einer in den Urlaub gehen kann krank sein kann.

00:15:00: Und dann verändern sich auch die Teamstrukturen und

00:15:05: vielleicht auch in der Softwareentwicklung das auch aussehen wird.

00:15:09: Genau, das ist eigentlich der zweite Part, den du ja mit verantwortest

00:15:14: und daraus würde ich am liebsten eine eigene Folge noch machen.

00:15:19: Gerne.

00:15:20: Aber vielleicht können wir das noch mal abrunden.

00:15:22: Wir sind jetzt also Käufer-Verkäufer.

00:15:24: Da habt ihr zwei verschiedene Co-Pilots.

00:15:27: Sind das technisch auch zwei oder ist das einer?

00:15:30: Und wenn ja, warum ist es das?

00:15:31: Das sind technisch auch zwei, weil dahinter liegt diese

00:15:35: Agent-und Tool-Architektur.

00:15:37: Das heißt, man hat immer das LLM, man hat sein System-Prompt, dem man

00:15:41: erst mal beschreibt, was es macht und gibt dem Large-Language-Model dann Werkzeuge an

00:15:45: die Hand, damit es eben zum Beispiel auch mal eine API, eine Schnittstelle aufrufen

00:15:49: kann oder erweitertes Wissen abfragen kann.

00:15:52: Und wenn man das erst mal verstanden hat, ist es eigentlich so mind-blowing, würde

00:15:56: ich fast sagen, weil man gibt dem Agenten nur die Tools und beschreibt,

00:16:00: was die Tools machen.

00:16:01: Es gibt auch jetzt diese Standard-MCP, dann ist das schon alles

00:16:04: ganz sauber gelöst.

00:16:06: Und der Agent entscheidet dann selbst, was jetzt führt die Anfrage des Kunden, eben

00:16:10: das passende Tool ist, was er aufrufen muss.

00:16:12: Ein Beispiel: Er will jetzt einfach seine Rechnung sehen.

00:16:16: Dann hat man ihm ein Tool gegeben, was eben Rechnungen aus dem ERP laden kann und

00:16:20: dann weiß der Agent, okay, er geht zum Rechnungen, dann wird das Tool, wo das

00:16:24: passende sein, und benutze ich das mal, um jetzt eine Rechnung abzufragen.

00:16:27: Und ohne, dass ich ein Stück programmiert habe da drin.

00:16:31: Und Mindblowing ist halt, dass man es gar nicht selber durchdenken muss, sondern

00:16:35: dass die AI das sich selber schon erschließt.

00:16:37: Ja, ja.

00:16:38: Natürlich kann man auch nie 100% vorher sagen, was jetzt auch passieren wird.

00:16:42: Das ist halt natürlich dann …

00:16:44: Ist halt so, in dieser ganzen Funktionsweise, dieser

00:16:49: Large-Language-Model, ist ja immer diese Temperature drin.

00:16:51: Das ist halt immer ein bisschen der Zufall.

00:16:53: Das heißt, es ist nicht jedes Mal exakt gleich und dann haben natürlich auch

00:16:57: kleine Änderungen in den Ausgangswerten.

00:16:59: Die können dann auch finden, größere Änderungen haben.

00:17:01: Das ist dann eben auch die Kunst, das so zu konfigurieren, dass es funktioniert.

00:17:06: Und da sagen wir als Intershop auch immer: Da muss dann auch immer ein

00:17:10: Implementierungspartner wie synaigy einfach auch mit rein.

00:17:13: Die Experten, die das dann in den konkreten Kundenfall einfach mit anpassen.

00:17:17: Ja, ist von Kunde zu Kunde auch unterschiedlich.

00:17:20: Hängt von den Datenmengen und Themen ab.

00:17:23: Genau, und was wir auch sehen, wenn die Kunden das erst mal sehen, dann

00:17:27: kriegen die richtig gute Ideen, auf die wir selbst nicht kommen würden und die

00:17:30: können dann im Projekt sehr leicht umgesetzt werden.

00:17:33: Und damit ihr noch gute Ideen entwickelt könnt, wrappe ich das hier mal ab.

00:17:38: Was du direkt am Anfang rausgehauen hast, ist, dass man AI und das Thema einfach

00:17:43: nicht nebenher machen kann, sondern dass ihr den Schritt gegangen seid, ein eigenes

00:17:48: Team zu haben, das du führen darfst und dann für die eigene und für

00:17:52: den Kunden Sachen entwickelt.

00:17:54: Das, finde ich, ist ein super Learning.

00:17:55: Zweitens, was jetzt zum Schluss kam, ist dieses: Es gibt nicht den einen Agent,

00:18:01: sondern es gibt mehrere und die Agents wissen auch selber schon, was sie

00:18:04: können und wen sie dafür brauchen.

00:18:07: Das finde ich auch noch wichtig.

00:18:09: Und das Dritte ist das Thema, die Agents können auch machen,

00:18:14: dass ihr das auch direkt so implementiert habt und dass das so

00:18:17: wahnsinnig wertvoll ist.

00:18:20: Ich würde gerne mit dir auch noch, weil das schaffen wir zeitlich gar nicht,

00:18:24: in die Thematik der Prozesse eingehen, weil das haben wir eigentlich mit dem

00:18:29: Co-Pilot nur gestriffen: Er macht was.

00:18:32: Aber sagst du, ist das eine Folge, da könnten wir noch mal

00:18:35: in die Tiefe reingehen? Klar, gerne.

00:18:37: Das ist super.

00:18:38: Dann würde ich sagen, ihr wartet bis zur nächsten Folge und wir drehen sie gleich,

00:18:43: weil das ist bestimmt auch noch mal mind-blowing, was das angeht.

00:18:46: Nils, danke erst mal für deine Insights heute und für die Einblicke.

00:18:52: Danke schön.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.