Warum Reaktivierung inaktiver Kunden ein wichtiges Thema ist?
Es kostet bis zu sechsmal mehr, einen Neukunden zu gewinnen, als einen bestehenden Kunden zu halten. Die Kaufwahrscheinlichkeit bei einem Bestandskunden bis zu 14-mal höher. Und auch die Loyalität ehemaliger Kunden ist deutlich höher als bei Neukunden.

Dies sind nur drei gute Gründe, warum es wichtig ist, inaktive Kunden wieder zu reaktivieren. Was man bei einer Reaktivierung bedenken muss, wie man sie umsetzt und was es für konkrete Maßnahmen für eine Reaktivierung gibt – mehr dazu im folgenden Artikel.

Einführung Reaktivierung von Kunden

Neukunden zu gewinnen ist super, aber auch super teuer. Trotzdem konzentrieren sich viele Unternehmen für die Steigerung ihres Umsatzes hauptsächlich auf die Akquise von Neukunden – und vergessen dabei, dass die Bindung und Reaktivierung bereits vorhandener Kunden viel lukrativer sein kann.

Warum? Weil es viel einfacher ist, etwas an einen bereits bestehenden Kunden zu verkaufen. Eine der größten Herausforderungen, um jemanden zu einem Kauf zu bewegen, besteht darin, Vertrauen zwischen ihm und dem Unternehmen aufzubauen. Ein Kunde, der bereits etwas gekauft hat, weiß aus Erfahrung, dass die Marke vertrauenswürdig ist. Da dieses Vertrauen bereits hergestellt wurde, hat man quasi schon den halben Weg geschafft, damit ein Kunde erneut kauft.

Doch was tun, wenn der Kunde irgendwann aufhört zu kaufen?

1. Identifikation der inaktiven Kunden

Jedes Geschäftsmodell ist anders. So kaufen Stammkunden beim Bäcker jeden Sonntag ihre Brötchen, das Netflix-Abo wird jeden Monat bezahlt und das Jahresticket für den Nahverkehr – guess what – einmal im Jahr. Unabhängig von der durchschnittlichen Kaufhäufigkeit des Geschäftsmodells sollte man wissen, wann der durchschnittliche Kunde wahrscheinlich wieder einkaufen wird.

Ist diese durchschnittliche Kaufhäufigkeit bekannt, so kann man diejenigen Kundenidentifizieren, die sich deutlich weniger intensiv mit dem Unternehmen befassen.

Mit diesen Informationen wird es viel einfacher, Kunden anhand ihres Verhaltens und ihrer Kaufmuster zu segmentieren. Um zum Bäcker-Beispiel zurückzukehren: Bemerkt man, dass Kunden, die ehemals jeden Sonntag gekauft haben, nun seit über einem Monat nicht mehr aufgetaucht sind, so kann man deutlich sehen, dass diese inaktiv wurden und wieder gezielt angesprochen werden müssen.

Es ist also wichtig zu wissen, wann ein Kunde vom Radar gefallen ist, wenn man ihn erneut aktivieren möchten.

Reaktivierung Kunden

2. Potentialanalyse der inaktiven Kunden

Macht es Sinn, all diese inaktiven Kunden zu reaktiveren? Nein! Den ehemaligen Stammkunden, welcher über zwei Stunden lang jeden Sonntag zur Hauptbetriebszeit im Café an einer einzigen Tasse Tee nippt – den vermisst der Cafébetreiber schätzungsweise nicht schrecklich. Die Großfamilie, die jeden Samstagvormittag zum Brunchen vorbeikommt, wahrscheinlich schon eher.

Doch wie identifiziert man diejenigen Kunden, bei denen sich eine Reaktivierung wirtschaftlich gesehen lohnt?

Hier kann der Einsatz von künstlicher Intelligenz helfen, um Prognosen zu treffen, welche der inaktiven Kunden am besten auf neue Kaufreize anspringen. So lässt sich identifizieren, für welchen Kunden bei einer geringen Investition ein großer Umsatz zu erwarten ist. Hierbei spielt der Customer Lifetime Value eine Rolle. Ist dieser laut Prognose positiv, so rentiert sich eine Reaktivierung.

Durch Prognosen können auch rechtzeitig mögliche Brüche einer Kundenbeziehung erkannt, sowie typische Profile und Muster abwandernder Kunden generiert werden. Dies hilft bei der frühzeitigen Erkennung von gefährdeten Kunden und bietet dadurch die Möglichkeit, schneller gegenzusteuern. Dabei lassen sich die inaktiven Kunden nach ihren Abwanderungsgründen segmentieren: gab es eine Veränderung der familiären Situation, des Berufes, ein Interessenswandel oder liegt eine Unzufriedenheit mit dem Service oder den Produkten des Unternehmens vor?

3. Maßnahmen zur Reaktivierung inaktiver Kunden

Sind nun die Kunden identifiziert, welche zurückgewonnen werden sollen, so gibt es verschiedene Möglichkeiten, Maßnahmen dahingehend umzusetzen. Da die Anzahl möglicher Maßnahmen sehr hoch ist, betrachten wir im Folgenden nur einige davon.

Der große Vorteil an ehemaligen Kunden gegenüber Neukunden ist, dass bereits eine Historie über ihn existiert. Man kennt Kaufgewohnheiten, Präferenzen, Bedürfnisse. Heißt, wieder zu aktivierende Kunde können genau mit den Produkten angesprochen werden, die sie in ihrem bisherigen Kundenleben häufig gekauft haben.

Zudem weiß man meistens, auf welchen Kanälen man effektiv mit diesem Kunden kommunizieren kann.

Ein mit am häufigsten genutzter Kommunikationskanal ist die E-Mail.

E-Mail-Reaktivierungsstrategien

E-Mail-Marketing ist einer der profitabelsten digitalen Marketingkanäle. Für jeden dafür ausgegebenen Dollar wird eine durchschnittliche Rendite von 38 US-Dollar erzielt.

Dies macht ihn zu einem leistungsstarken Tool für Ihre Kundenreaktivierungsstrategie.

Hier gibt es die Möglichkeit, nach Kundenaktivitäten zu segmentieren und dadurch eine gezielte Win-Back-E-Mail-Kampagne einzurichten. Studien zeigen, dass nur ein Viertel der inaktiven Kunden die erste Rückgewinnungs-E-Mail öffnen, bis zur Hälfte jedoch nachfolgende. Daher macht es Sinn, mehrere Mails für solch eine Kampagne anzulegen.

Strategien zur Reaktivierung sozialer Medien

Für manchen Zielgruppen sind E-Mails inzwischen eine veraltete Technik. Diese erreicht man eher über Social Media. Über gezieltes Targeting kann man erfolgreich die Kunden ansprechen, welche aktiv auf den verschiedenen Plattformen sind. Hierfür gibt es zumeist auch die passenden Kampagnenmanager, welche eine automatisierte Aussteuerung der Kampagne ermöglichen.

Belohnungen für Feedback

Eine der besten Möglichkeiten, einen inaktiven Kunden zu reaktivieren, besteht darin, einfach zu fragen, warum er gegangen ist. Vielleicht haben sich ihre Bedürfnisse oder Gewohnheiten geändert. Ohne tatsächlich nachzufragen, kann man nur Mutmaßungen anstellen, welche keine gute Basis für Marketingentscheidungen darstellen.

Eine Kundenumfrage lässt sich beispielsweise sehr gut in ein Prämienprogramm (siehe unten) integrieren, um dadurch einen erhöhten Anreiz für die Beantwortung zu setzen.

Durch Umfragen setzt sich der Kunden mit dem Unternehmen auseinander, wodurch es wieder bei ihm präsenter wird. Zudem liefert er dadurch die Antworten, die man braucht, um ihn wieder zu reaktivieren und seine Bedürfnisse anzusprechen.

Prämienprogramme

Was die Chance einer Rückgewinnung nochmals erhöht, sind Prämienprogramme. Diese sind mit einer der erfolgreichsten Tools zur Kundenbindung. Vorallem solche, welche mit verschiedenen Ebenen aufgebaut sind und dadurch zum Erreichen der nächsten Stufe motivieren. Wer möchte denn nicht gerne VIP-Status haben?! Diese gamifizierten Aspekte steigern die Attraktivität und reizen zum erneuten Kauf an.

Übringens, laut Studien der Harvard Business School kann bereits eine Steigerung der Kundenbindung um 5% den Gewinn um bis zu 95% erhöhen.

Fazit Reaktivierung von Kunden

Es gibt also viele Möglichkeiten inaktive Kunden zurückzugewinnen. Und auch viele gute Gründe. Die bereits vorhandenen Kenntnissen über die Kunden, welche zu einer gezielteren Ansprache bei der Reaktivierung und somit zu Kosteneinsparungen führen, ist einer davon. Auch das bereits vom Kunden aufgebaute Vertrauen zum Unternehmen erleichtert eine Reaktivierung im Vergleich zu einer Kundengewinnung.

Wichtig ist vorallem, dass man die Reaktivierung nicht zu lange aufschiebt. Je länger es her ist, dass jeder Kunde inaktiv geworden ist, desto schwieriger wird es, ihn wieder zu aktivieren.

Sie brauchen Hilfe bei der Auswahl Ihrer zu reaktivierenden Kunden? Kontaktieren Sie uns!

Use

6 Use-Cases in
30 Minuten

Wir stellen Ihnen 6 unserer bewährte Use-Cases vor. Praktische Beispiele, Anwendungen und Success-Stories.
-Unverbindlich und kostenfrei-
Mehr Informationen 
07145 / 9250255

oder
6 Use-Cases 

Der Customer Lifetime Value ist ohne Frage eine der wichtigsten Steuerungsgrößen im Marketing und CRM. Doch wie kann man ihn berechnen? In diesem Fall führen viele Wege nach Rom. Eine der am häufigsten angewandte Methode ist die sogenannte RFM Analyse. Diese betrachtet drei wichtige Kennzahlen der Kunden und kombiniert sie in einem dreidimensionalen Modell miteinander.
Wie man sie genau anwendet und wie sich die Ergebnisse nutzen lassen, erfahrt ihr jetzt.

Was ist die RFM Analyse?

Die RFM-Methode ist ein Modell zur Ermittlung der Kundenqualität, wodurch sich Kunden in verschiedene Kategorien einteilen lassen. Ziel der Analyse ist es, ein Bild der Kundenlandschaft zu schaffen, von welchem sich konkrete Marketingmaßnahmen für die einzelnen, ermittelten Segmente ableiten lassen. Durch diese kann eine Erhöhung des Return on Investment erreicht werden. Die Analyse stellt somit eine wichtige Grundlage für die Allokation des Marketingbudgets dar. Zudem lassen sich Rücklaufquoten von Kampagnen näherungsweise durch die Analyseergebnisse prognostizieren.


Die Analyse nutzt vergangenheitsbezogene Daten zu den Kunden, welche aufbereitet werden, um Referenzwerte zu ermitteln. RFM steht dabei für Recency, Frequency und Monetary. Der Ansatz berücksichtigt also neben Umsatzwerten auch die zeitliche Komponente, indem der Zeitpunkt des letzten Einkaufs und die Zahl der Einkäufe pro Kunde einbezogen werden.

Recency: Wann hat der Kunde zuletzt gekauft?

  • Je aktueller der letzte Kauf zurückliegt, desto wahrscheinlicher ist ein Kauf in Zukunft
  • Je länger der letzte Kauf her ist, desto unwahrscheinlicher ist ein zukünftiger Kauf

Frequency: Wie häufig hat ein Kunde gekauft?

  • Je öfter ein Kunde kauft, desto wahrscheinlicher ist ein Kauf in Zukunft
  • Je seltener ein Kauf getätigt wird, desto unwahrscheinlicher ist ein zukünftiger Kauf

Monetary: Wie viel Geld gibt ein Kunde aus?

  • Je höher der Umsatz, desto wahrscheinlicher ist ein höherer Umsatz in der Zukunft
  • Je niedriger der Umsatz, desto unwahrscheinlicher ist ein hoher Umsatz in der Zukunft

Kategorienbildung

Bei der RFM-Analyse werden nun Kategorien gebildet. Die Zahl der Kategorien hängt von den individuellen Anforderungen der Unternehmen ab, sollte aber nicht zu hoch sein. Typisch sind Einteilungen in „hoch“, „mittel“ und „niedrig“, oftmals wird zusätzlich noch „sehr hoch“ genutzt.

Wichtig ist, dass die Kategorisierung nicht nur auf einer einzelnen Kennzahl beruht, sondern auf Kennziffern, die jeweils Recency, Frequency und Monetary widerspiegeln. Es handelt sich beim RFM also um ein dreidimensionales Modell, das abbildet, welchen Wert ein Kunde hat.

Beispielsweise für Recency: Kategorie „niedrig“ für einen letzten Kauf innerhalb den vergangenen 12 Woche, Kategorie „mittel“ für den letzten Kauf innerhalb von mehr als einer bis ca. 52 Wochen und Kategorie „hoch“ für den letzten Kauf von vor mehr als 52 Wochen. Je nach üblicher Kauffrequenz bieten sich andere Einteilungen an. Für die Zahl der Wiederkäufe und den Umsatz werden ebenfalls entsprechende Einteilungen gefunden.

Berechnung der RFM-Klassen

Im nächsten Schritt werden zwei Kategorien statistisch und visuell zusammengebracht. Hier wird beispielsweise angezeigt, welche Kunden in beiden Kategorien in „hoch“ eingestuft sind und welche Kunden in „hoch“ und „mittel“ und so weiter. Aus dem Zweiervergleich lassen sich schon erste Rückschlüsse ziehen, beispielsweise ist ein hoher Umsatz mit hohen Wiederkäufen meistens stark korreliert. Im nächsten Schritt wird die dritte Kategorie hinzugefügt.

Nun lassen sich die Kunden in drei Dimensionen beschreiben und Kundensegmente definieren. Bei drei Kategorien mit jeweils drei Einteilungen sind das maximal neun Segmente. Bei mehr Einteilungen entstehen entsprechend mehr Segmente. Beispielsweise wäre das Segment, in dem die Kunden in allen drei Kategorien „hoch“ sind, das Star-Segment mit den höchsten Kundenwerten. Sinnvollerweise lassen sich einige Kombinationen zu einem Segment zusammenfassen, weil beispielsweise ein ähnlicher Kundentyp unterstellt werden kann oder das Segment eine zu kleine Zahl an Kunden aufweisen würde.

RFM Analyse

Ergebnisse der RFM Analyse richtig nutzen

Mithilfe der Kundensegmentierung können nun unterschiedliche Kundenansprachen und Marketingmaßnahmen gefunden werden, um die einzelnen Kundensegmente gezielter anzusprechen und deren Potentiale voll auszuschöpfen. Während Kunden des einen Segments beispielsweise einen Treuebonus erhalten, gibt es für Kunden eines anderen Segments ein einmaliges Angebot. Wiederum andere Kunden aus eher uninteressanten Segmenten werden bei begrenztem Marketingbudget nicht mehr gezielt angesprochen.

Ob die Maßnahmen dann wirkungsvoll waren, kann an den Kundenbewegungen zwischen den Segmenten in der Folge beobachtet werden. Es ist also wichtig, die Analyse nicht nur einmal durchzuführen und sie als statisches Modell zu betrachten. Sie kann permanent als Screening des Kundenstamms eingesetzt werden, um Erfolge von Marketingmaßnahmen nachzuvollziehen und zu überprüfen.

Sie interessieren sich für das Thema Kundensegmentierung, Customer Lifetime Value und ähnliches und fragen sich, wie Sie diese Themen am besten in Ihrem Unternehmen umsetzten können? Kontaktieren Sie uns jetzt für mehr Infos!

Bild3

Jetzt Ihren Kundenwert erhöhen

Wir stellen Ihnen vor, wie Sie den Predictive Customer Lifetime Value in Ihrem CRM erfolgreich umsetzten und dadurch nachhaltig Ihren Kundenwert steigern.
-Unverbindlich und kostenfrei-
Mehr Informationen 
07145 / 9250255

oder
Jetzt starten

Die Frage, ob Ihr Unternehmen künstliche Intelligenz (KI) benötigt, steht heutzutage gar nicht mehr zur Debatte – denn die Antwort lautete in nahezu allen Branchen rund um die Welt sehr deutlich „Ja“.

Laut Prognosen kann im Jahr 2025 der Umsatz im Bereich von Unternehmensanwendungen mit künstlicher Intelligenz bis zu 31,24 Milliarden US-Dollar betragen.
Die Möglichkeiten der KI werden in den verschiedensten Bereichen ausgeschöpft: zur Verbesserung des Kundenerlebnisses, um neue Einnahmen zu erzielen und Kosten zu senken.

Die Frage, die sich also stellt, bezieht sich nicht auf das „ob“ bei der Einführung von KI Software, sondern auf das „wie“.

Hierzu wollen wir die verschiedenen Aspekte einer „Make or Buy“-Entscheidung in Bezug auf KI Software beleuchten.

Was bedeutet „Make or Buy“?

„Make or Buy“-Entscheidungen beschäftigen sich mit der Frage, ob bestimmte Leistungen oder Produkte von externen Anbietern bezogen oder vom eigenen Unternehmen produziert werden. Hierbei spielen die Kriterien Kosten, Qualität, Zeit, Ressourcen und Risiken eine Rolle. Oftmals findet dafür ein vordefinierter Unternehmensprozess statt, um eine objektive Entscheidung zu garantieren.

Ki Software

Kriterium Zielsetzung – KI Software als Kerngeschäft oder Unterstützung?

Für Unternehmen, die KI benötigen, um ihr Kerngeschäft zu stärken oder den strategischen Erfolg sicherzustellen, ist selbst entwickeln der richtige Weg, wie beispielsweise bei Uber mit autonomen Fahrzeugen oder Netflix und deren Empfehlungs-Engin.

Für Bereiche, die nicht zum Kerngeschäft gehören, wie Personalwesen, Finanz- und Rechnungswesen oder Kundendienst, reicht hingegen oftmals der Kauf eines der vielen bewährten AI-Produkte von der Stange aus.

„Es kommt darauf an, wie strategisch und einzigartig Ihre KI-Anwendungen für Ihr Unternehmen sind.“, so Thomas Malone, Gründungsdirektor des MIT-Zentrums für kollektive Intelligenz.

So einfach wie diese Aussage nun erscheinen mag ist es dann aber leider doch nicht.

Sich die richtigen Fragen stellen

Als Erstes definiert man das Hauptziel, welches durch die KI Software erreicht werden soll. Möchte man transformative, große Schritte durch die KI erzielen oder reicht einem eine einfach zu realisierende Anwendung, welche schnell Erfolge erzielt?

Do it yourself für innovative Geschäftsmodellneuerungen

Möchte man große Veränderungen an seinem aktuellen Geschäftsmodell vornehmen oder gar ein neues, innovatives Unternehmen starten, so steht es außer Frage, dass die dafür benötigte KI Software im eigenen Haus produziert werden muss. Dies garantiert einem als Unternehmen das geistige Eigentum an der Entwicklung und bedeutet daher einen großen Wettbewerbsvorteil gegenüber anderen Marktteilnehmern. Man kann exakt die Features entwickeln, welche den eigenen Vorstellungen und Bedürfnissen entsprechen. Zudem bietet es mehr Flexibilität und Kreativität bei der Entwicklung. So kann man Änderungen und neue Funktionen bei Bedarf unabhängig umsetzten. Gelingt das Produkt wie erwartet, so spart man auf Dauer fortlaufende Lizenzkosten und Wartungsgebühren, welche bei eingekaufter KI Software häufig anfallen.

Bei einer Eigenentwicklung muss das Produkt eine bessere Performance als alle am Markt bereits vorhandenen Lösungen aufweisen, ansonsten ist es wertlos.

Auf der anderen Seite sind natürlich auch die Risiken höher und man darf nicht vergessen, dass die Möglichkeit des Scheiterns des Projektes besteht. Die Entwicklung eigener Software beansprucht viel Zeit und vor allem qualifizierte Mitarbeiter, welche in der Zeit nicht für andere Projekte verfügbar sind – Stichwort Opportunitätskosten. Es besteht also das Risiko, dass das Kerngeschäft leidet. Zudem muss die Schulung für den Umgang mit neuer Software durch die eigenen Mitarbeiter durchgeführt werden, was einen zusätzlichen Zeitfaktor darstellt. Desweiteren sind gerade im IT-Bereiche hohe Fluktuationen der Mitarbeiter üblich. Verlässt einer der entwickelnden oder bereits geschulten Mitarbeiter das Unternehmen, so fallen zusätzliche Kosten für die Einarbeitung neuer Fachkräfte an.

6 Gründe für die Eigenentwicklung von KI Software

  • alle Rechte am Produkt
  • USP, Wettbewerbsvorteil
  • Wachstumchancen
  • hohe Flexibilität
  • Unabhängigkeit von Anbietern
  • keine überflüssigen Funktionen

KI Software für Routinetätigkeiten

Ist das Ziel eines KI-Projektes hingegen, dass Routinetätigkeiten abgewickelt und sofortige Mehrwerte geliefert werden, so ist es selten eine gute Idee, eine eigene KI Software aufzubauen. Selbst mit Open-Source-Tools kann die Erstellung von Anwendungen mit künstlicher Intelligenz Millionen kosten. Zudem dauert es meist Monate, bis ein Algorithmus für maschinelles Lernen trainiert ist, um Aufgaben zu erfüllen, die die meisten Anbieter bereits lösen.

Maschinelles Lernen funktioniert hervorragend bei sich wiederholende Back-Office-Verwaltungsaufgaben aus. Anwendungen, die diese Aufgaben ausführen und perfekt darauf trainiert sind, gibt es bereits auf dem Markt.

Kaufen bietet weitere Vorteile: die Integration der Anwendung in die eigene IT-Umgebung wird oftmals durch die Anbieter übernommen, ebenso wie die Schulung der Mitarbeiter.

Zudem kauft man selten die Katze im Sack. Ein wichtiger Punkt bei bereits vorhandener KI Software ist, dass man häufig testen kann, ob das Produkt die eigenen Anforderungen erfüllt und einen Performance-Uplift generiert.

Standardsoftwareunternehmen oder spezialisierte Anbieter – wo liegen die Unterschiede?

Sobald man sich für den Kauf entschieden hat, ist die nächste Frage, ob man einen spezialisierten KI-Anbieter wählt oder auf bereits implementierte Unternehmenssoftware mit möglichen KI-Elementen zurückgreift.

Viele Unternehmen wenden sich an ihre bestehenden Softwareanbieter, welche bereits genutzte Systeme um KI Features erweitern. Solche Systeme haben nicht nur Zugriff auf umfangreiche Datenmengen – häufig auf die eigenen Daten des Käufers -, sondern können auch oftmals ohne spezielles Know-how oder zusätzliche Schulungen verwendet werden.

6 Gründe für Standardanbieter von KI Software

  • IT-Infrastruktur für Implementierung bereits vorhanden
  • keine Sicherheitslücken
  • Schnittstellen zu anderen Systemen bereits vorhanden
  • Vorhandene Dokumentation
  • Erfahrungsaustausch von Nutzern möglich
  • Berater und Support wird gestellt

KI von der Stange ist oft der sicherste Weg, aber die Aussicht auf Erfolge hält sich in Grenzen, da kein großer Wettbewerbsvorteil dadurch entsteht.

Bei spezialisierten Anbietern hingegen steigt der Wettbewerbsvorteil. Viele der Anbieter sind kleine, innovative Unternehmen. Diese arbeiten agiler und bringen daher eine höhere Flexibilität und teils auch Personalisierungsmöglichkeiten mit sich. Generell können spezialisierte Anbieter mit Kosten- und Zeitersparnis punkten. Hier sind Data Scientists und Softwareentwickler bereits eingestellt und mit der arbeitsintensiven Aufgabe beauftragt, Modelle für maschinelles Lernen zu trainieren. Zudem beschäftigen sich diese ausschließlich mit deren Produkt und sind daher spezialisiert auf dessen Entwicklung und Implementierung. Auch die permanente Weiterentwicklung und Optimierung des Produktes spricht für spezialisierte Anbieter bei KI Software.

6 Gründe für einen spezialisierten Anbieter von KI Software

  • hohe Agilität bei innovativen Unternehmen
  • Kosten- und Zeitersparnis gegenüber Standardsoftware
  • spezialisierte, ausgereifte Softwarelösungen für explizite Probleme
  • permanente Optimierung des Produktes durch den Anbieter
  • sofortige Implementation und Inbetriebnahme möglich
  • Schulungen und Betreuung durch Anbieter

Kosten vs. Performance

Vergleicht man die Aspekte der Kosten und des generierten Mehrwertes durch Nutzung von KI Software bei Make or Buy-Entscheidungen, so lassen sich zwei unterschiedliche Verläufe dieser feststellen.

ki software 1

Entwickelt man selbst KI Software, so steht am Anfang ein großer Kostenblock sowie keinerlei Einnahmen. Nach Fertigstellung des Produktes ist es allerdings nicht so, dass man gar keine Kosten mehr hat. Permanente Optimierungen, Schulungen der Mitarbeiter und Wartungen verursachen fortlaufend Kosten. Mit Einführung des Produktes wird nun langsam der Umsatz des Unternehmens erhöht. Dieser kann sich, sollte sich die Performance wie gewünscht einstellen, rasch entwickeln. Das Risiko, dass man die angestrebten Ziele nicht erreicht, besteht allerdings.

Dem gegenüber bietet eingekaufte KI Software einen großen Vorteil: durch die Möglichkeit, die Performance vorab testen zu können, besteht kein Risiko. Die sich gesetzte Ziele können erreicht werden – und zwar direkt ab Einsatz der Software.

Fazit Make or Buy bei KI Software

Zusammengefasst lässt sich also sagen, dass man als Unternehmen bei Entscheidungen bezüglich KI Software zunächst überlegen sollte, wo genau man sie einsetzten möchte. Betrifft das Einsatzgebiet das Kerngeschäft eines Unternehmens, so sollte man das entsprechende Produkt selbst entwickeln. Dabei hat man nämlich mehr Flexibilität und später auch alle Rechte am geistigen Eigentum.

Möchte man aber KI Software einsetzten, um einzelne Bereiche des Geschäftsmodells zu verbessern, so eignet sich KI Software von Fremdanbietern. Dadurch spart man Ressourcen in Form von Zeit und Kosten und verringert das Risiko, durch einen Test der Performance.

Sie möchten KI Software im Bereich des Marketing und CRM einsetzten um die Kundenbindung zu stärken und den Kundenwert erhöhen? Testen Sie jetzt, welchen inkrementellen Umsatz-Uplift Sie durch den Einsatz von KI Software erreichen können!

AB

Individueller KI Kampagnen-Test 

Sie können die Performance unsere KI-Lösung Parapipe in einer ersten, von Ihnen ausgewählten Marketing-Kampagne nach dem A/B-Prinzip testen. 
Mehr Informationen 
07145 / 9250255

oder
Test anfragen

Hast du schon einmal auf Spotify deinen persönlichen Mix der Woche gehört und dich gefragt, wie gut dich die App wirklich kennt? Bieten Händler wie Amazon dir vor dem Checkout regelmäßig attraktive Angebote an, die du zusammen mit deiner Auswahl günstiger erwerben kannst? Dann ist Hyperpersonalisierung bereits Bestandteil deines Alltags. So nutzt du Hyperpersonalisierung effektiv im Marketing, ohne Kunden durch die Datennutzung abzuschrecken.

Maximal 8 Sekunden hast du Zeit, um einen Interessenten von deiner Website oder deinem Onlineshop zu begeistern. In diesen 8 Sekunden nimmt der Besucher alle relevanten Informationen auf, begutachtet unterbewusst das Design und schätzt für sich ab, ob die Website seriös ist. Dazu tragen in Europa beispielsweise Zertifizierungen wie Trusted Shops bei. Am Ende dieser wenigen Sekunden entscheidet der Nutzer, ob er bei dir kaufen und sich weiter informieren möchte. Wiederkehrende Besucher hingegen achten nur auf Neuerungen. Je flexibler deine Website sich nach ihnen richtet, desto mehr gibt es zu entdecken. Hier kommt Hyperpersonalisierung ins Spiel.

Was ist Hyperpersonalisierung?

Beim Begriff der Personalisierung denken die meisten Nutzer vor allem an Angebote wie „Kunden, die diesen Artikel kauften, interessieren sich auf für“. Tatsächlich handelt es sich dabei um eine Personalisierung auf Basis des angesehenen Artikels, wie sie ohne viel Aufwand in Shops einpflegbar ist. Auch ein Newsletter, der sich mit Nennung deines Namens an dich richtet, ist personalisiert. Hyperpersonalisierung geht einen Schritt weiter. Hier richtet sich alles danach, wonach du suchst, was du magst und was du zuletzt gekauft hast. So sieht beispielsweise die Startseite des Streaminganbieters Netflix für jeden Kunden anders aus. Natürlich haben alle Kunden deiner Region Zugriff auf das gleiche Angebot. Aber nur du hast zuletzt „Nailed it!“ geschaut und bekommst dafür nun auch „Chef’s Table“ vorgeschlagen. 

Der Unterschied zwischen Personalisierung und Hyperpersonalisierung

Noch vor wenigen Jahren war die gewöhnliche Personalisierung der absolute Standard im Marketing. Eine persönlich formulierte und an eine Zielgruppe angepasste Mail wirkte vertrauenserweckend, die „Related“ Vorschläge im Netz waren oft relevanter als der Inhalt, den der Nutzer gerade betrachtete. Ein in die Suche im Shop eingegebener Begriff konnte beispielsweise alle Stiefel in der Größe des Kunden ausgeben. Die Personalisierung reduzierte die Zeit bis zum Vertragsabschluss in Onlineshops und konnte allgemeine Discounte anbieten, wenn der Käufer sich beispielsweise für ein reduziertes Schuhpaar zum eigentlichen Kauf hinzuzukaufen entschied. 

Hyperpersonalisierung kann mehr, denn sie arbeitet nicht nur mit Namensdatenbank und Suchhistorie. Stattdessen nehmen Unternehmen aller Branchen sich die Freiheit, von Anfang an die Daten aus Käufen, Suchen, weiterleitenden Medien und Warenkorb auszuwerten. Das Ergebnis ist Marketing, das oft wie Gedankenlesen wirkt. Ein paar Monate nach dem Kauf einer Pflanze kann so beispielsweise ein Gartenmarkt einen Newsletter versenden, dass der Kunde jetzt für diese Pflanze einen passenden Dünger erwerben sollte. Möglich macht das ein Hinterlegen großer Datenmengen von Online und Offline-Daten zu jedem einzelnen Nutzer und Kunden.

ANWENDUNGSBEISPIELE in der Praxis

Möchtest du durch eine KI oder einen einfachen Algorithmus ein neues Kauferlebnis für deine Kunden schaffen, solltest du zunächst wissen, mit welchen Daten du arbeiten möchtest. Für die personalisierte Ansicht von Start- und Shopseiten sind beispielsweise wichtig:

  • Von welchem Gerät mit welcher Internetgeschwindigkeit greift der Kunde zu?
  • Ist der Kunde angemeldet, oder kann ihm die Registrierung angeboten werden?
  • Wann hat der Kunde zuletzt den Shop besucht?
  • Hat der Kunde ungekaufte Artikel im Warenkorb oder einer Merkliste liegen?
  • Welche Inhalte mag der Kunde für gewöhnlich und welche kauft er tatsächlich?
  • Welche legt er sich in den Warenkorb und welche werden retourniert?

Nicht deine Mitarbeiter verarbeiten diese Daten, sondern das Datawarehouse oder Shopsystem selbst. Möglich macht es eine KI, die deine Kunden im Blick behält oder ein Algorithmus, der auf jede Änderung adäquat reagieren kann. Eines der besten Beispiele sind Netflix, Spotify und andere Streaminganbieter, die den Kunden auch per Mail oder Push-Notification informieren, wenn es mit seinen angesehenen Serien weitergeht oder neue Dokus und Filme nach seinem Geschmack hinzugefügt wurden. So lockt die Seite oder App den Besucher zurück auf die Plattform.

Vorteile im Marketing

Bestimmt hast du schon einmal den Spruch gehört, dass Daten die neue Währung unseres Jahrhunderts sind. Tatsächlich gibt es für dich als Unternehmer nichts spannenderes, als deine Kunden vollkommen zu kennen. Kein Raten und Kalkulieren mehr, welche Zielgruppe angesprochen werden sollte. Keine gerade so passenden Angebote per Newsletter. Durch Hyperpersonalisierung weiß deine Website besser als der Kunde selbst, was er gerade wirklich sucht. Der Datenschutz lässt uns als Marketing Experten nicht unbegrenzt mit den Daten der Besucher arbeiten. Doch gerade anonymisiert in tagesaktuellen Statistiken unterstützen dich die Zahlen und Fakten auch dabei, zukünftige Werbung gezielt auszuspielen. Du investierst weniger in breit gestreutes Marketing und mehr in den perfekten Service für deine Website- und Shopbesucher.

Auch die Verkaufszahlen von Shops mit Hyperpersonalisierung können sich sehen lassen. Kunden lieben es, maßgeschneiderte Angebote vorgelegt zu bekommen. Passende Ersatzteile, Zubehör zu gekauften Artikeln oder Dinge, die ihnen gefallen könnten, werden eher angeschaut und öfter gekauft. Dabei macht der Algorithmus keinen Unterschied zwischen alten Ladenhütern und brandneuen Artikeln. Du verkaufst alles – und davon mehr. Dadurch steigen die Conversions und du verzichtest auf die altbekannten Streuverluste.

Künstliche Intelligenz als Motor für Hyperpersonalisierung

Menschen lieben es, wenn du persönlich auf sie zugehst und ihnen echten Mehrwert bietest. Eine Studie von Epsilon zeigte 2019 auf, dass Besucher 80% häufiger in Shops bieten, die sie als Konsumenten wirklich kennen. Je besser die Technologie dahinter wird, desto effizienter können hyperpersonalisierte Angebote ausgespielt werden. Die Echtzeit-Analyse des Kaufverhaltens ist nur durch eine hochentwickelte KI möglich, die sämtliche Aktivität auf deiner Website im Blick behält. Paraboost entwickelt eine solche KI für dich mithilfe von AutoML und gibt dir ein übersichtliche Lösung an die Hand, in dessen KI Dashboard du nachverfolgen kannst, worauf die KI wie reagiert hat. So lassen sich beispielsweise unpassende und taktlose Vorschläge von Anfang an verhindern. 

Lass dich von unseren Experten beraten und erfahre, was Hyperpersonalisierung für dein Business tun kann! Jetzt Kontakt aufnehmen.

Du möchtest einen PC speziell für Machine-Learning-Anwendungen zusammenbasteln, aber dabei nicht die exorbitanten Preise für spezialisierte Hardware auf den Tisch legen? Mit ein bisschen Glück hast du einen guten PC für Anwendungsfälle dieser Art schon zu Hause stehen – denn hinsichtlich ihrer Hardware sind sie den Gaming-PCs nicht unähnlich.

Wofür brauche ich einen Machine-Learning-PC überhaupt?

Grob gesagt, fütterst du deinen PC mit sehr großen Datensätzen und trainierst Modelle, um in Zukunft bestimmte Aufgaben besser bewältigen zu können. Der Computer entwickelt dadurch selbstständig Algorithmen, die auf den Daten basieren, die du ihm verabreicht hast. Da wir gerade beim Thema Gaming-PCs waren, hilft ein Beispiel, um die Sache zu verstehen: Denkbar sind etwa Lösungen, um die Bildqualität in Spielen deutlich zu verbessern, ohne dass dadurch die Leistung beeinträchtigt wird. NVIDIAs hauseigenes DLSS (Deep Learning Super Sampling) ist ein Beispiel dieser Methode. Zum anderen sind diese Super-PCs auch bei automatisiertem Machine Learning (AutoML) extrem sinnvoll, da sehr viele Experimente durchgeführt werden. Diese können parallelisiert durchgeführt werden, um die Laufzeiten der Programme deutlich zu reduzieren.

Ein Teilgebiet dieser Lösungen sind Aufgaben wie Feature Engineering: Diese sehr CPU-intensive Aufgabe optimiert die Performance bestehender Algorithmen. Mit anderen Worten: Um alle Felder abzudecken, brauchst du viel CPU- und GPU-Leistung in einem Paket.

Der ideale PC für Machine Learning: kaufen oder Eigenbau?

Die Hersteller hochspezialisierter Maschinen für Machine Learning / Deep Learning lassen sich ihre Arbeit natürlich fürstlich bezahlen. Dabei kochen sie am Ende aber auch nur mit Wasser. Das soll heißen: Sie setzen nicht auf Zauberhardware aus einem geheimen Labor, sondern verbauen RAM, GPU, CPU & Co. genauso, wie du es auch machen würdest.

Eventuell kommen bei gekauften PCs dieser Art besonders zertifizierte Komponenten zum Einsatz (Enterprise-HDDs mit besonders langen Garantielaufzeiten, ECC-RAM und ähnliche Bauteile), aber der Grundaufbau bleibt derselbe.

Das heißt: Die Zeichen stehen gut, dass du dir für wenig Geld einen vollkommen ausreichenden PC für die unterschiedlichsten Machine-Learning-Modelle zusammenbauen kannst. Schauen wir uns dazu die wichtigen Komponenten in der Übersicht an:

RAM für ML Computer

Hier gilt: Viel hilft viel. Je mehr RAM, desto besser. Da Applikationen dieser Art nie genug Arbeitsspeicher haben können, solltest du nicht hier kleinlich sein. Du wirst Unmengen von Daten zwischen CPU und RAM und zur GPU schaufeln, wenn du deine Algorithmen lernen lassen möchtest. Die meisten Datensätze sollten dabei unkomprimiert sein, um Zeit zu sparen. Bei 64 GB DDR4-RAM geht es hier los, mehr kann nicht schaden.

CPU Prozessor für ML Computer

Du hast die Wahl zwischen Intel und AMD, wobei AMD hier aufgrund der aktuellen CPU-Landschaft klar die Nase vorn hat. Threadripper-CPUs vereinen dermaßen viele Kerne (und Threads) in einem Package, dass Intel in diesem Segment aktuell nichts entgegenzusetzen hat. Kleines Rechenbeispiel: Für einen Threadripper 2920X mit 12 Kernen und 24 Threads bezahlst du etwas weniger als 400 Euro. Bei Intel bekommst du für denselben Preis 8 Kerne und 16 Threads. Zwar ist dort die Single-Core-Leistung höher, diese spielt bei Machine-Learning-Anwendungen aber eine untergeordnete Rolle. Möchtest du genau jetzt zugreifen, führt an AMD somit kein Weg vorbei.

GPU Grafikkarte für ML Computer

Die nächste große Baustelle ist die GPU: Viel VRAM und eine hohe Geschwindigkeit sind hier wichtig. Bedenken musst du, dass VRAM anders als RAM funktioniert: Hast du nicht genügend VRAM, aber dein Machine-Learning-Modell verlangt danach, wird es einfach nicht starten. Eine aktuelle GeForce Titan RTX mit 24 GB VRAM wird dieses Problem niemals haben, allerdings ist sie auch entsprechend teuer (knapp 3.000 Euro werden fällig). Ein besseres Preis-Leistungs-Verhältnis findest du in allen GPUs ab 8 GB VRAM – also etwa eine RTX 2080 Ti oder auch die ältere Generation ab GTX 1080.

Netzteil für Sicherheit

Laufen die meisten Komponenten permanent unter hoher Last, brauchst du auch eine Stromversorgung, die dieser Auslastung standhält. Spare daher nicht am falschen Ende und investiere in ein Netzteil mit sowohl einem hohem Effizienzgrad als auch genügend Leistung. Spielst du mit dem Gedanken, mehrere GPUs zu verbauen, steigt der Stromverbrauch rasant an. Eine pauschale Empfehlung können wir natürlich nicht geben, da wir nicht wissen, was du am Ende in deinen PC baust. Im Zweifelsfall gilt aber: lieber ein über- als unterdimensioniertes Netzteil kaufen. Außerdem gilt: Finger weg von No-Name-Produkten!

Wasserkühlung zur Leistungssteigerung für Machine Learning

Abwärme muss schnell abtransportiert werden – und von dieser Wärme wird dein PC durch den hohen Stromverbrauch eine Menge produzieren. Wasserkühlungen sind hier eine gute Investition, da Wasser die Wärme schneller leitet als Luft und obendrein auch niedrigere Temperaturen garantiert werden. Auch unter hoher Last müssen Komponenten dann nicht throtteln oder sich abschalten. Je besser die Kühlleistung Deines PC’s desto performanter sind Deine CPU- und GPU Chips. In etwa 30%-45% mehr Leistung lässt sich dadurch erzielen. Außerdem läuft das System dann leiser als mit einer reinen Luftkühlung, was je nach Aufstellungsort für deinen PC wichtig sein kann.

Einen Überblick über die wichtigsten Komponenten und worauf es ankommt, hast du jetzt – aber spart man damit wirklich so viel Geld?

Der Vergleich zu NVIDIAs DGX Station

Mit der Vorstellung der RTX 2000-Serie hat NVIDIA auch die DGX Station vorgestellt. Dabei handelt es sich um eine Workstation, die für die AI-Entwicklung konzipiert wurde, aber generell überall dort zum Einsatz kommen kann, wo Data Science im großen Stil betrieben wird. Ausgestattet ist das Gerät mit 4 Tesla V100-GPUs (einer auf der Volta-Architektur basierenden GPU mit 16 GB VRAM), einer CPU mit 20 Kernen und 128 GB RAM. Für diese Hardware verlangt NVIDIA stolze 49.000 US-Dollar.

An der Performance der DGX Station gibt es nichts auszusetzen: Machine-Learning-Modelle, die trainiert werden müssen, schaffen die Arbeit ungefähr 50 Mal schneller als auf einer einzelnen CPU. Allerdings kannst du dir eine recht ähnliche Leistung schon für den Bruchteil eines Preises ins Haus holen – und wenn du einen Gaming-PC dein Eigen nennst, stehen die Chancen auch gut, dass du sowieso schon eine leistungsstarke Grafikkarte, viel RAM und eine schnelle CPU besitzt.

Auch Angebote aus der Cloud halten dem Vergleich nicht stand: Mietest du etwa über Amazon (in Form von AWS) oder über Microsoft Azure CPU-/GPU-Rechenkapazitäten und nutzt diese für Machine Learning, sparst du ungefähr 90 % der Kosten bei der Nutzung einer einzigen GPU ein. Was bei AWS gute 3 Euro pro Stunde kostet, schlägt zu Hause mit nur 20 Cent zu Buche. Der Vorteil wächst weiter in deine Richtung, wenn du mehr GPUs zuschaltest.

Fazit: Eigenbau ist signifikant günstiger – und fast genauso gut

Spielst du mit dem Gedanken, mit Machine Learning zu experimentieren, kannst du für wenige Tausend Euro eine vergleichbare Leistung erzielen wie die großen Cloud-Lösungen oder spezialisierte Hardware. Für Privatkunden ist die Investition in diese professionellen Lösungen damit praktisch vollkommen unattraktiv – und gewaltige Unterschiede zu Gaming-PCs gibt es, mit Ausnahme der gewaltigen RAM-Bestückung, kaum.

AutoML beschreibt die Automatisierung maschinellen Lernens. Die Anwendung des Machine Learnings war bislang auf die Expertise spezialisierter Data Scientists angewiesen. Automatisierte ML-Prozesse vereinfachen zahlreiche Schritte und ermöglichen auch weniger erfahrenen Nutzern den Einsatz. Einige Beobachter sehen in der Verbreitung des AutoML ein ähnlich starkes Potential wie einst in der Einführung der automobilen Massenproduktion durch Fließband-Technik. 

AutoML im Überblick

AutoML beschreibt die Automatisierung der Schritte des maschinellen Lernens in der Anwendung auf reale Problemstellungen. AutoML basiert auf künstlicher Intelligenz und bietet eine Lösung für die wachsenden Herausforderungen des Machine Learnings. Eine typische Anwendung des maschinellen Lernens ist auf zahlreiche Prozesse angewiesen. Diese reichen von der Datenvorverarbeitung über das Feature Engineering und die Auswahl des Algorithmus bis zur Optimierung der Parameter. Diese Schritte sind erforderlich, damit die Daten überhaupt für das Machine Learning nutzbar sind. Dies erforderte bislang den Einsatz von Experten, damit das maschinelle Lernmodell die gewünschte prädiktive Leistung erbringt. 

Mit AutoML entwickelt sich ein wichtiger Trend auf KI-Basis, der zu einer einfacheren und schnelleren Lösung für ML-Anforderungen beiträgt. Die Entwicklungen weisen darauf hin, dass AutoML Modelle erstellen kann, die über die Leistung der manuell entworfenen Modelle hinausgeht. Das automatische Machine Learning gilt als Schlüssel zur Vereinfachung des Aufbaus von komplexen KI-Architekturen. Einige Anbieter und Hersteller bieten bereits nutzbare Lösungen aus der Schnittmenge von KI und Machine Learning an. Diese reichen von Anwendungsbereichen wie Spracherkennung und Bilderkennung über Marketing und Verkaufsvorhersagen bis zu Predictive Maintenance (vorausschauende Instandhaltung).

Funktionsweise und Workflow im Machine Learning

Der typische Workflow des Machine Learnings ist ein iterativer Prozess aus Einzelschritten. Dies beginnt mit dem Verständnis sowie der Formulierung der Problemstellung. Anschließend sind relevante Trainings-Daten für das Machine Learning festzulegen und zu erheben. Es folgt die Aufbereitung dieser Daten. Dazu gehören die Daten-Zusammenfassung, ihre Formatierung sowie gegebenenfalls ihre Bereinigung. Auf die Vorbereitung der Daten folgt das Feature Engineering Anschließend sind die Attribute zur Erstellung des Lernmodells zu ermitteln. Infolgedessen kommt es zum Training des Modells. Die Parameter der Algorithmen für das Machine-Learning sind immer weiter zu optimieren. Beim Vergleich verschiedener Lernmodelle ist schließlich das am besten geeignete Modell auszuwählen. Ergebnisse sind zu analysieren und zu visualisieren. Es folgt das Deployment des Modells durch die Generierung von APIs und seine Einbindung in eine Anwendung. Bei der anschließenden Nutzung des Modells in produktiver Umgebung ist es fortlaufend zu kontrollieren und zu überwachen. 

Automatisierbare Prozesse im Workflow

Diese genannten Schritte laufen in vielen Workflows separat und voneinander getrennt ab. Sie sind an entscheidenden Stellen auf das manuelle Eingreifen qualifizierter ML-Experten angewiesen. Das Ziel im AutoML ist es, diese Prozesse automatisiert auszuführen und den manuellen Eingriff zu reduzieren und im Idealfall zu ersetzen. Als Anwender bleibt für dich die Aufgabe, die Daten bereitzustellen und die Vorhersagen am Ende der Learning-Prozesse zu bewerten beziehungsweise sie für konkrete Geschäftsprozesse anwendbar zu machen. 

Viele dieser Prozessschritte im Machine Learning sind für die Automatisierung geeignet. Typischerweise lassen sich die Datenaufbereitung sowie das Feature-Engineering automatisieren. Auch die Auswahl der ML-Algorithmen sowie die Modellauswahl sind automatisierbar. Die schrittweise Optimierung der Parameter und Hyperparameter ist ebenfalls via AutoML realisierbar. Die Analyse und Visualisierung der Ergebnisse sind lassen sich auch automatisieren. Auch das Deployment des entworfenen Modells eignet sich für die Automatisierung. In diesem Zusammenhang ist neben der Bereitstellung von Schnittstellen (APIs) auch die Generierung einer Runtime-Umgebung zu nennen. 

Von besonderem Anspruch ist die Aufgabe des Feature-Engineering. Features stellen messbare Eigenschaften der Datensätze dar. Für diese Eigenschaften existiert zu jeder Beobachtung (Observation) in den Daten ein Wert. Die Generierung neuer Features durch Kombination oder Transformation bereits vorhandener Features nennt sich Feature-Engineering. Hierbei besteht das Ziel darin, die Daten derart zu modifizieren, dass die Algorithmen des Machine Learnings immer mehr Muster identifizieren können. Der Aufwand besteht darin, dass hierbei zahlreiche Alternativen durchgespielt und bewerten werden. Dieser Schritt lässt sich durch automatisierte Deep-Learning-Prozesse und Best Practices deutlich beschleunigen. 

Jede Fragestellung in einem Lernprozess lässt sich grundsätzlich mit verschiedenartigen Algorithmen angehen. Es existieren immer mehr Frameworks für Machine-Learning, die gleiche Algorithmen beinhalten. Die Optimierung der Algorithmen sowie deren Hyperparameter ist bei manueller Handhabung mit viel repetitivem Aufwand verbunden. Mit einer AutoML-Engine lässt sich diese Arbeit parallelisiert und deutlich schneller bewältigen. 

AutoML-Lösungen im Überblick

Der Markt bietet eine Reihe verfügbarer Lösungen für das automatisierte maschinelle Lernen. Dazu gehören Tools und Erleichterungen für die Automatisierung unterschiedlicher Prozessschritte. Einige dieser Tools sind für die lokale Nutzung vorgesehen, während andere auf Cloud-Plattformen laufen. Einige dieser Lösungen bieten dir als Anwender graphische Nutzeroberflächen. Auf diesen kannst Du benutzerdefinierte Modelle für das maschinelle Lernen visuell unterstützt erstellen und trainieren. 

H2O AutoML ist eine Lösung, die eine automatisierte Modellauswahl sowie Modellzusammenstellung ermöglicht. Sie funktioniert auf der H2O-Plattform, einer KI-Plattform für das maschinelle Lernen und die Datenanalyse.

AutoKeras stellt eine Open-Source-Bibliothek auf Python-Basis dar. Auch hier steht das automatisierte maschinelle Lernen im Fokus. 

Google bietet mit dem Konzept Google Cloud AutoML eine vollständige Produkt-Suite für das Machine-Learning. Diese ist in die Cloud-Dienste Googles vollständig eingebunden. Das Angebot richtet sich an Entwickler mit geringen Kenntnissen und will auch diesen die Möglichkeit bieten, anforderungsgerechte Modelle zu trainieren. 

Ebenso Cloud-basiert ist Azure Automated ML. Dieses Angebot basiert auf der Cloud-Plattform von Microsoft Azure. 

AutoWEKA ist eine Lösung, die dir eine gleichzeitige Auswahl des Machine-Learning-Algorithmus und seiner Hyperparameter ermöglicht. Eine Erweiterung AutoWEKAs ist das Konzept Auto-sklearn. Dieses erweitert das Angebot um die Python-Bibliothek scikit-learn. Hierbei handelt es sich um einen Drop-in-Ersatz für scikit-learn Regressoren und Klassifikatoren. 

Das Angebot MLBoX stellt eine Bibliothek für das maschinelle Lernen dar, die über die drei Bestandteile Vorverarbeitung, Optimierung und Vorhersage verfügt. 

Paraboost hat mit seiner Lösung Parapipe ebenfalls eine eigene AutoML entwickelt. Dabei sind eine Vielzahl von Use-Cases im CRM direkt umsetzbar. Die Parapipe geht dabei sogar noch einen Schritt weiter als andere AutoML-Lösungen. Aus rohen Transaktionsdaten werden unmittelbare Prognose-Ergebnisse erzeugt. Kunden können diese Ergebnisse dann direkt in ihre CRM-Systeme einbinden. Dazu bietet es die Möglichkeit die Ergebnisse der AutoML mit eigenen Daten in einem Vorab-Test unverbindlich zu testen.

AutoML Anwendungen und Einsatzbereiche

Die Anwendungsbereiche des AutoML sind vergleichbar vielseitig wie die des herkömmlichen Machine-Learnings. Durch die Einsparung von Zeit und Expertise ist die automatisierte Variante jedoch deutlich schneller und flexibler einsetzbar und damit für mehr potentielle Nutzer interessant.

Typische Anwendungsfelder sind Klassifizierungen aller Art, die sich mit via AutoML generierten Modellen ausführen lassen. Einsatz findet AutoML in der Erstellung, dem Training und in der Optimierung von Modellen des Machine-Learnings zur Lösung verschiedener Probleme. Dabei werden oftmals eine Vielzahl von Modellen als Experimentier-Reihe gerechnet, für die sich der Einsatz von Grafik-Karten eignet. Diese können um bis zu Faktor 5 schneller sein!

Im Marketing kann das automatisierte maschinelle Lernen eingesetzt werden, um Aufgaben des CRM (Customer Relationship Management) rationeller zu bewältigen. Die prädiktive Leistung eignet sich weiterhin, um beispielsweise Verkaufsvorhersagen zu treffen. 

Auch Identifikationsaufgaben, beispielsweise zur Bilderkennung oder zur Spracherkennung gehören zu den Anwendungsfeldern. Auch Textanalyse ist auf AutoML-Basis möglich. 

Robotik und Predictive Maintenance sind weitere Anwendungsfelder. Ein zusätzliches Anwendungsfeld ist die Betrugserkennung.

Fazit und Ausblick VON AUTOML

AutoML birgt großes Potential für unterschiedliche Anwendungsbereiche, die von allgemeinen Klassifizierungen über Marketing bis zur Robotik reichen. AutoML ist ein Beitrag zur Zeit- und Kostenersparnis, da es immer besser ohne KI- oder ML-Experten auskommt. Die große Stärke des AutoML besteht darin, die Einstiegshürden in die KI-Welt zu senken. Auch ohne ausgewiesene Kenntnisse im Bereich Machine-Learning wird es immer einfacher, wertvolle Modelle je nach Anforderung zu trainieren. In Anbetracht dieses Potentials ist AutoML nicht als bloßer Hype zu verstehen, sondern als ein Beitrag, künstliche Intelligenz auch in der Breite nutzbar zu machen. Ebenso wissen auch ML-Fachleute das Potential des AutoML zu schätzen, da der automatisierte Ansatz ihre eigene Arbeit deutlich beschleunigt.

Jeder Data Scientist kennt das Problem: Man hat einige Machine Learning Modelle auf einer Stichprobe der Daten entwickelt und möchte die Trainingspipeline nun auf dem Gesamtdatenbestand anwenden. Was bis eben noch ein paar Minuten gedauert hat, dauert auf einmal Stunden oder gar Tage.

„Ich brauch mehr Power“ – Schnell wird der Weckruf nach besserer Hardware und höherer Leistung laut. Doch was genau benötige ich eigentlich um meine Modelle zu verschnellern und die Laufzeit des Machine Learning Tainings zu minimieren?

In diesem Artikel wird Dir aufgezeigt wo die Unterschiede zwischen GPU vs. CPU liegen und führt einen Performance-Vergleich zwischen GPU und CPU basierter Ausführung eines XGBoost Algorithmus durch.

GPU vs CPU – Das Bierzelt Beispiel

Du sitzt in einem Bierzelt und möchtest eine Maß Bier bestellen. Du hast die Auswahl zwischen zwei Typen von Kellnern.

Typ Flitzer (CPU): Dieser holt immer genau ein Bier von der Theke und bringt die Maß dem Gast. Dann geht er wieder zurück zur Theke und holt das nächste Bier.

Typ Schlepper (GPU): Diese Kellnerin nimmt sich gleich fünf Maß in jede Hand von der Theke und bringt sie den Gästen. Sobald sie am Tisch ankommt kann sie gleich mehreren Gästen ihr Bier austeilen.

Wenn Du alleine das Bierzelt besuchst ist der Typ Flitzer deine präferierte Wahl. Du bestellst Dein Bier und kriegst es auch recht schnell an Deinen Tisch gebracht. Solltest Du das Bierzelt in einer größeren Gruppe in das Bierzelt gehen, stellt der Typ Schlepper als die geeignete Wahl heraus. Es dauert zwar länger bis die Gesamtbestellung geliefert wird, aber dann werden bis zu 10 Bier parallel verteilt. Und ihr könnt alle gemeinsam Anstoßen. Vereinfacht dargestellt kann man sich den Typ Flitzer als CPU bezeichnen und den Typ Schlepper als GPU.

Diese Eigenschaften haben CPU und GPU.

CPUs (Central Processing Units) haben nur wenige Kerne, die ihre Prozesse nacheinander mit wenigen Threads gleichzeitig ausführen. Die CPU ist der Hauptprozessor eines PC kann optimierte und lange komplexe Aufgaben ausführen und sind latenzoptimiert.

GPUs (Graphics Processing Unit) weisen eine große Anzahl einfacher Kerne auf, die paralleles Rechnen durch Tausende von Threads gleichzeitig ermöglichen. Die GPU ist die Grafikkarte eines PC kann einfache Aufgaben parallelisiert durchführen und sind bandbreitenoptimiert. Es können auch mehrere GPUs gleichzeitig in Betrieb genommen werden.

Die Rolle von GPU bei künstlicher Intelligenz

In einer Zeit, in der künstliche Intelligenz und automatisiertem Machine Learning (AutoML) immer mehr Anwendung findet, ändert sich auch der Stellenwert von CPU und GPU. Manuell erzeugte Machine Learning Modelle rücken immer mehr in den Hintergrund und dem Thema experimentellen Machine Learning kommt eine zunehmende Bedeutung zu. Hierbei werden hunderte Modelle automatisiert trainiert und nach Ende der Experimentreihe das Beste Modell ausgewählt. Die GPU gilt als Herzstück des AutoML, einem wichtigen Teilgebiet der künstlichen Intelligenz.

CUDA: Was ist das?

Cuda steht für „Compute Unified Device Architecture“ und ist eine Technologie und Programmierschnittstelle die vom Grafikkarten-Hersteller NVidia entwickelt wurde. Es beschleunigt die Durchführung von Programmen in dem gewisse Programmteile von einer oder mehreren GPUs gelichzeitig berechnet werden. Mehr und mehr Projekte wie zum Beispiel rapids.ai beschäftigen sich mit Entwicklung von Anwendungen von GPU Data Science. Um das nachfolgende Code-Bespiel durchführen zu können, musst Du vorab die passende Cuda-Version installieren.

XGBoost- Du hast die Wahl: CPU oder GPU

Beim Trainieren von Machine-Learning oder anderen Deep Learning Modellen gibt es verschiedene Möglichkeiten wo der Code Deines Programms ausgeführt wird. Entweder wird der Quell-Code auf dem CPU-Chip ausgeführt, oder aber wird das Programm als Cuda-Code auf der GPU ausgeführt. Die Entwickler des XGboost-Packages haben ihr Paket bereits auf der Basis von CUDA entwickelt, so dass die Anwendung auf der Grafikkarte sehr einfach ist.

Praktisches Beispiel: XGBoost CPU vs. GPU

Datenbasis:

  • Higgs Datensatz 
  • Training 1 Millionen Beobachtungen mit 30 Features
  • Test 500.000 Beobachtungen mit 30 Features

Machine Learning Modell:

  • XGBoost in Python
  • Binäre Zielvariable (Objective: binary:logitraw)
  • 500 Runden für das Boosting

GPU Ausführung

  • Verwendete Grafikkarte: Nvidia RTX 2080ti
  • Die Ausführung auf der GPU wird festgelegt durch „tree_method“=gpu_exact..
  • Zur Auswahl stehen entweder gpu_hist oder gpu_exact.
  • Die Zeit der Ausführung wird in der Variablen gpu_time gemessen.

CPU Ausführung

  • Verwendete Prozessor: Intel (R) i9-9900 mit 8 physischen und 16 virtuellen Kernen
  • Die Ausführung auf der CPU wird festgelegt durch „tree_method“=hist.
  • Die Ausführung auf der CPU wird ebenfalls parallelisiert (über n_jobs=16) so dass alle Threads voll ausgelastet sind und wir die Ergebnisse nicht mit einer Single-Thread Ausführung vergleichen.
  • Die Zeit der Ausführung wird in der Variablen cpu_time gemessen.

Performance Vergleich: XGBoost CPU vs. GPU

GPU: Nvidia RTX 2080tiCPU: Intel (R) i9-9000
Laufzeit: 26.53 Sekunden Laufzeit: 145.68 Sekunden
  • Die Durchführung des Trainings mit GPU war um den Faktor 5,4 schneller, als auf der CPU. Das entspricht einer Reduktion des Trainings von knapp 2,5 Minuten auf unter eine halbe Minute.
  • Bei dem verwendeten CPU handelt es sich ebenfalls um einen leistungsstarken Intel-Prozessor der neunten Generation, der ebenfalls parallelisiert ausgeführt wurde.
  • Beim Einsatz mehrerer Grafikkarten oder einem Benchmark-Vergleich zu einem schwächeren CPU würde der Faktor sogar auf über 20 ansteigen.
  • Die Ergebnisse und das resultierende XGBoost-Modell ist inhaltlich identisch und zu 99,99% deckungsgleich.
Laufzeitvergleich XGBoost 500 Runden, GPU vs VPU

Fazit und Ausblick von AUTOML

Durch die Ausführung von Machine-Learning Anwendungen auf GPU statt CPU Basis, lässt sich die Performance von Machine Learning Modellen signifikant verbessern!Entweder lassen sich die Laufzeiten reduzieren, oder es können einfach mehr Modelle in gleicher Zeit berechnet werden.

GPU-basiertes Machine Learning empfiehlt sich insbesondere bei AutoML Anwendungen oder überall wo viele oder intensive Trainings durchgeführt werden müssen. In Zukunft wird es deutlich mehr Open-Source Entwicklungen im Bereich von GPU-unterstützter Data Science geben und wir können daher zusammenfassen:

GPU ist das neue CPU für maschinelles Lernen!

Philipp Göller
GPU

Python Skript CPU vs GPU Cuda 

Wir schicken Dir das Python Skript zum Vergleich CPU vs. GPU per E-Mail zu.
-Unverbindlich und kostenfrei-
Python Skript anfragen
Skript anfragen

Eine Mottoparty steht an und Dir fehlt noch das perfekte Kostüm? Kein Problem, mit ein paar Klicks ist dieses Online bestellt und schon auf dem Weg zu Dir. Doch was, wenn es nicht passt? Oder Du doch lieber ein Pirat anstatt einem Vampir sein möchtest? Du packst es einfach wieder ein und schickst es zurück.

Retouren sind heutzutage völlig normal und nehmen in den letzten Jahren immer mehr zu.

Wir haben dazu die größten Fakten zusammengetragen und uns angeschaut, wie man als Handelsunternehmen am besten mit dem Thema umgeht.

Fakt #1

Erst einmal trockene Theorie am Anfang. Man unterscheidet bei Statistiken in Alpha- und Beta-Retourenquote. Die Alpha-Retourenquote betrachtet hierbei die kompletten Pakete, welche zurückgeschickt werden, bei der Beta-Retourenquote werden die einzelnen Artikel ausgewertet.

Fakt #2

Die Ursache für Retouren hat zwei Haupttreiber: einmal die Warengruppe, aus welcher der bestellte Artikel stammt und die Kundengruppe, welche ihn bestellt. Die anfälligste Warengruppe ist Kleidung. Häufig werden Artikel in verschiedenen Größen oder Farben bestellt, was zu einer höheren Retourenquote führt. Junge Frauen bis Mitte 30 sind zudem die Kundengruppe, welche die meisten Produkte retourniert.

Fakt #3

Dass die falsche Größe bestellt wurde, ist einer der Hauptgründe für Retouren. Besonders bei Frauen – Sie verschätzen sich beim Bestellen einer Größe bis zu 20% häufiger als Männer.

Fakt #4

Die Zahlungsart spielt übrigens auch eine Rolle bei den Retouren. Die Quote ist bei Käufen auf Rechnung höher als bei E-Payment oder Vorkasse. Verständlich – wer auf Rechnung bestellt, hat eher das Gefühl von einem „Probekauf“. Der Artikel gehört einem noch nicht wirklich, daher überlegt man öfter, ob man ihn wirklich behalten möchte oder nicht.

Fakt #5

Circa 6% haben schon mal einmal Artikel in dem Wissen bestellt, dass sie ihn wieder zurückschicken werden. Motivation dafür ist häufig, dass der Mindestwert für den kostenlosen Versand erreicht wird.

Fakt #6

Retouren sind kulturabhängig. Die Mentalität der Menschen beeinflusst Retouren sehr. So werden anderenorts nicht passende Kleider einfach umgenäht, anstatt zurückgesendet.

Fakt #7

Würde man alle innerhalb eines Jahres in Deutschland zurückgesendeten Pakete aneinanderreihen, so käme man in etwa auf eine Länge von 114 400 Kilometern. Das entspricht 2,86 Erdumrundungen. Für den Transport der Rücksendungen werden dabei ca. 143 000 Tonnen CO--<sub>2</sub> ­­ freigesetzt.

Fakt #8

Rücksendungen gehen aber nicht nur auf Kosten der Umwelt, sondern verursachen auch viel Aufwand für die Unternehmen. Im Schnitt kommen auf ein Unternehmen Prozesskosten in Höhe von 5,18 Euro pro Rücksendung zu. Bei unter 10 000 Retouren im Jahr sogar bis zu 17,70 Euro. Die größten Kostentreiber sind dabei die Sichtung, Identifikation und Qualitätskontrolle der Artikel. Nicht nur die Abwicklung der Retouren, sondern auch der Wertverlust der zurückgesendeten Artikel können ganz schön teuer werden. Fast jede zweite Rücksendung ist beschädigt, was Unternehmen dazu zwingt, einen Preisnachlass von bis zu 35%, bei Textilien sogar bis zu 42% zu gewähren. Im Schnitt beträgt der Wertverlust pro Retoure ca. 7 Euro.

Fakt #9

Ein weiterer Punkt, welcher Unternehmen viel Geld kosten kann, ist Retourenbetrug. Besonders bei Schmuck oder Kosmetikartikeln werden immer wieder ähnliche, günstigere Artikel zurückgesendet, um den eigentlich höheren Betrag des ursprünglich bestellten Artikels zurückerstattet zu bekommen.

Ein anderer Weg, auf dem Onlinehändler ausgetrickst werden, ist die Ausnutzung der kulanten Rückgabebedingungen. So nimmt Amazon nicht alle Artikel zurück, wenn der Aufwand dafür zu hoch ist – die Kosten werden dennoch zurückerstattet. Dies hier soll allerdings keine Anleitung zum betrügerischen Shoppen sein. Als Käufer sollte man sich im Klaren sein, dass man zwar viele Rechte hat, damit aber auch Pflichten bei einem Kauf eingeht.

Doch was hilft nun, um Retouren zu vermeiden und damit Kosten einzusparen?

Artikelbeschreibungen und Kundenfeedback

Man setzt am Besten an den Punkten an, welche die Hauptgründe für Rücksendungen darstellen. Möglichst genaue Artikelbeschreibungen und vielseitige Fotos des Produktes helfen dem Kunden dabei, sich ein bestmögliches Bild des Artikels zu verschaffen.

Auch die Möglichkeit für Kundenfeedback hilft anderen Kunden, Artikel besser einschätzen zu können. Fällt der Schuh vielleicht eher kleiner aus oder ist der lila Farbton des T-Shirts im natürlichen Tageslicht eher rötlicher.

Dieses Feedback kann auch in dynamische Empfehlungssysteme, zum Beispiel beim Kleidungskauf, eingearbeitet werden. Dir passt die Hose der Marke xy in Größe M wie angegossen? – Perfekt, dann probiere bei dieser Marke doch lieber eine S, denn sie fällt verhältnismäßig kleiner aus.

Timing ist wichtig!

Außerdem wirkt sich die Verarbeitungszeit der Bestellung sowie eine transparente Sendungsverfolgung positiv auf die Zufriedenheit der bestellten Artikel aus. Je schneller ein Kunde sein Paket erhält, desto präsenter ist noch die emotionale Verbundenheit und Vorfreude auf das Produkt. Dauert es lange, bis ein Kunde den bestellten Artikel erhält, so gerät dieses bereits langsam in Vergessenheit und der ursprüngliche Zweck für den Kauf wird eher hinterfragt.

Den gleichen Effekt haben aufgesplittete Sendungen. So ist die Frustration über das Warten auf den letzten Teil der Sendung oft höher, als die Freude über den frühen Erhalt des ersten Teiles.

Qualität, Qualität, Qualität!

Ein besonderes Augenmerk auf die Qualität des Artikels und eine hochwertige Verpackung sind ebenfalls wichtige Punkte der Retouren Vermeidung. Viele Artikel werden retourniert, weil die bereits beschädigt beim Kunden ankommen. Achtet man also darauf, dass das Produkt vor dem Versenden in einem einwandfreien Zustand ist und dass es sicher verpackt ist, können Schäden am Produkt verhindert und dadurch die Retourenquote gesenkt werden.

Zwar bringen diese Maßnahmen einen Mehraufwand und zusätzliche Kosten mit sich. Allerdings lassen sich dadurch Rücksendungen vermeiden und auch die Kundenzufriedenheit steigern.

Falls Du noch mehr zum Thema Retouren lesen magst, schau doch mal bei der Retourenforschung vorbei:http://www.retourenforschung.de/definition_statistiken-retouren-deutschland.html

Unsere Use-Cases zur Vermeidung von Retouren findest Du hier:

Um den Absatz, die Kundenbindung oder die Bekanntheit zu erhöhen, investieren Unternehmen oft hohe Summen in Marketingkampagnen. Doch erzielen diese überhaupt die gewünschte Wirkung? Und wenn ja, in welchem Maße können sie zum Unternehmenserfolg beitragen? Häufig lässt sich das an monetären Ergebnissen ablesen. Doch worauf muss dabei geachtet werden? Was sind die ausschlaggebenden Kennzahlen, auf welche man bei der Kampagnenauswertung achten muss?

Dieser Artikel gibt einen Einblick in verschiedene Test- und Auswertungsmethoden, welche Dir helfen werden, zukünftige Kampagnen erfolgreicher zu gestalten. Indem Du jede Kampagne als wissenschaftliches Experiment angehst, erhälst Du tiefere Einblicke. Und durch tieferes Verständnis maximierst Du Deinen Erfolg!

Beispielsweise gehört zur Auswertung eines Newsletter nicht nur die Opening-Raten. Haben die aktiven Kunden denn auch einen höheren Umsatz generiert? Der Erfolg einer Kampagne setzt sich aus verschiedenen Faktoren zusammen.

Testmethoden

Um tiefere Einblicke in eine Kampagne zu bekommen, gibt es verschiedene Ansätze. Je nach Art passen jeweils verschiedene Kampagnenauswertungen besser.

Generell empfiehlt es sich beim Testaufbau von Kampagnen mit Kontrollgruppen zu arbeiten. Damit schafft man eine Vergleichsgrundlage für die Ergebnisse. Bei dieser handelt es sich um eine kleine Gruppe der Kunden, an die sich die Kampagne richtet. Sie ähnelt in ihrer Struktur der Zielgruppe und repräsentiert diese in ihrer Zusammensetzung an demographischen Merkmalen, Kaufverhalten, Geschlecht, etc… Diese sollte in etwa 5-10% Ihrer Zielgruppe umfassen. Bei kleineren Zielgruppen mit wenigen Tausenden Personen ein wenig mehr, ca. 10-20%.

A/B Test – unterschiedliches Angebot, gleiche Kunden

Der A/B-Test ist eine der gängigsten Testmethoden, um der Wirkung von Kampagnen auf den Zahn zu fühlen. Dazu gibt es zwei Ansätze: entweder wird mit einer Nullgruppe oder mit zwei verschiedenen Kampagnen gearbeitet. Bei der ersten Methode kommt der eine Teil der Kunden mit einer Marketingkampagne in Berührung, beispielsweise mit einem Zusatzkatalog oder einem Sonderangebot. Die andere Gruppe erhält hingegen nichts. Vergleicht man nun die Perfomance der beiden Gruppen, so lässt sich daraus der Erfolg der Kampagne ablesen.

A/B Test

Möchte man nun aber Kampagnen optimieren und herausfinden, was diese erfolgreich macht, so arbeitet man ebenfalls mit zwei Kundengruppen der gleichen Struktur. Dieses Mal bekommen beide Gruppen eine Kampagnen – allerdings zwei unterschiedliche. Um beim Beispiel des Zusatzkataloges zu bleiben, ändern wir an diesem für die zweite Kundengruppe nun ein Merkmal ab – etwa das Titelbild. Nun lässt sich wieder die Perfomance der beiden Gruppen untereinander vergleichen. Dadurch kann ermittelt werden, welche Kampagne erfolgreicher verlief. Wichtig ist hierbei, dass sich die Kampagnen nur in einer Variablen unterscheiden, um so gezielte Schlussfolgerungen ziehen zu können.
Diese Tests können auch als A/B/n-Tests durchgeführt werden, „n“ steht dabei für eine weitere Variante, also eine weitere Gestaltungsmöglichkeit eines Titelbildes zum Beispiel. Das Testen mehrerer Varianten parallel erfordert allerdings einen größeren Pool an Kunden, um valide Ergebnisse erzielen zu können.

Diese Tests finden vor allem Anwendung, um verschiedene Werbemaßnahmen zu vergleichen. Anschließend kann das beste Ergebnis ausgewählt und dadurch die Kampagne optimiert werden.

Die Ergebnisse eines solchen Tests können beispielsweise wie folgt aussehen:

KundenanzahlResponse-QuoteØ Umsatz
Angebot A5003%110 Euro
Angebot B5004%114 Euro

Der Test lässt sich aber auch umkehren. Du stellst Dir die Frage, welche Kundengruppen am besten auf Dein Angebot reagieren, um besseres Targeting dafür einsetzten zu können? Dazu muss man zunächst mit heterogenen Kundengruppen arbeiten und deren Resonanz auf das Angebot messen. Quasi in Form eines umgekehrten A/B-Testes. Wie das funktioniert, erklären wir im nächsten Absatz anhand einer speziellen Form des A/B-Testes, nämlich dem Champion-Challenger Ansatz.

Champion Challenger – unterschiedliche Kunden, gleiches Angebot

Dieser Testaufbau lässt sich am besten an einem Beispiel beschreiben. Gehen wir einmal davon aus, dass wir unseren besten Kunden ein Sonderangebot zukommen lassen wollen. Doch wer sind eigentlich die besten Kunden? Um diese zu ermitteln wenden wir unser übliches, schon oft erprobtes Vorgehen an – das ist der aktuelle Champion. Dem gegenüber steht nun aber eine neue Methode, welche den Champion herausfordert – der sogenannte Challenger.

Bei dem jeweils ausgewählten Kundenkreis stellt man fest, dass sich ein Großteil überschneidet, also von beiden Modellen ausgewählt wurde. Daher betrachtet man für die Auswertung der Ergebnisse nur jene Kunden und deren Umsätze, welche sich nicht in der Schnittmenge befunden haben.

Die Ergebnisse diesen Tests könnten so aussehen.

KundenanzahlResponse-Quote Ø Umsatz
Kundengruppe Champion5005%100 Euro
Kundengruppe Challenger5007%130 Euro

Diese Methode ist ein guter Ansatz um neue Ideen und Entwicklungen im kleinen, kostensparenden Rahmen zu erproben. Dadurch wird das Risiko gesenkt, dass eine Innovation nicht den gewünschten Erfolg erzielt. Im Grunde funktioniert der Ansatz auf dieselbe Weise wie der A/B-Test, wird aber eher für Strategien angewandt, um diese auszutesten.

Nach dem nun beschriebenen Tests von Marketingkampagnen liegen uns nun einige Ergebnisse vor. Doch was nun? Zunächst sollte man die Ergebnisse nicht vorschnell als bare Münze nehmen. Um tatsächlich valide Schlussfolgerungen ziehen zu können, ist es wichtig, ein wenig tiefer in die Materie einzutauchen und sich intensiver mit den Auswertungsergebnissen zu befassen.

Auswertungsmethoden

Meist erkennt man relativ schnell mit einfachen Auswertungstool erste Ergebnisse einer Marketingkampagne. Wie viele Kunden haben einen Newsletter geöffnet, wie viele sind dadurch auf die Webseite gelangt und wie viel Umsatz wurde dadurch generiert. Doch blickt man ein wenig tiefer in die Datensätze, so erkennt man, dass die Durchschnittswerte, welche man zunächst grob ausgerechnet hat, durch einzelne Daten verzogen und somit verfälscht werden können. Ausreißer beeinflussen Ergebnisse oft. Vor allem im Business-to-Business-Sektor ist die Wahrscheinlichkeit nicht gering, dass mehrere Tausend Euro Umsatz durch einen einzigen Kunden generiert worden sind, welcher das Ergebnis zunächst sehr positiv erscheinen lässt, die Durchschnittswerte aber in eine unrealistische Richtung verzerrt.
Um mit diesen Daten richtig umzugehen, können sie isoliert betrachtet werden oder es erfolgt eine Deckelung der Umsatzhöhe.

t-Tests

Der t-Test ist die gebräuchlichste Methode in der Statistik, um Mittelwerte zweier Gruppen zu vergleichen.
Mit dem t-Test lässt sich ermitteln, ob zwei verschiedene Stichproben signifikant unterschiedlich sind. Hierzu werden also zwei Stichproben benötigt – perfekt für die Ergebnisse der bereits beschrieben A/B-Tests. Gehen wir beispielsweise davon aus, dass Gruppe A, welche einen Katalog mit einem roten Titelbild erhalten hat, höhere Umsätze erzielt, als Gruppe B, welche ein blaues Titelbild zugesendet bekam. Doch ist dieser Effekt wirklich statistisch signifikant? Dies kann durch den Test überprüft werden.

Schauen wir uns als Beispiel nochmal unseren ersten A/B-Test an, so ist das Ergebnis nicht signifikant, da Gruppe B zwar im Schnitt einen höheren Umsatz generiert, die Abweichungen innerhalb dieser Ergebnisse aber sehr schwanken. Hier kann man also schlussfolgern, dass Angebot B keine besseren Ergebnisse liefert als Angebot A.

Auswertung A/B Test

Bei unserem zweiten Test hingegen unterscheiden sich die Mittelwerte des Umsatzes deutlicher, zudem sind die Abweichungen innerhalb der Umsätze nicht so groß. Das Ergebnis ist daher signifikant, was bedeutet, dass das Angebot in Kundengruppe B (Challenger) relevant bessere Ergebnisse erzielt.

Auswertung Champion/Challenger
Signifikanz Champion/Challenger

Generell muss man darauf achten, dass bei einer großen Datenmenge, also bei vielen Kundendaten, bereits kleine Abweichungen ausreichen, damit der Test signifikant ist. Bei wenigen Kunden sind dafür größere Abweichungen nötig.

Aber keine Sorge, Du musst kein Mathefreak sein und auch keinen Taschenrechner zücken, um einen t-Test anzuwenden. Mit Excel und Online-Rechnern lässt sich das ganz einfach lösen. Auch wir haben für unser Beispiel einen Online-Rechner benutzt. Diesen findest Du hier:

https://www.graphpad.com/quickcalcs/ttest1.cfm

Voraussetzung für die Anwendung des t-Testes ist, dass die Grundgesamtheiten normalverteilt vorliegen. Ist dies nicht der Fall, so muss auf andere statistische Verfahren zurückgegriffen werden – beispielsweise  Bootstrapping.

Bootstrapping

Wie funktioniert das? Grob gesagt werden dabei immer wieder kleinere Stichproben aus der Gesamtdatenmenge gezogen, es wird ein Resampling durchgeführt. Es werden also durch die Annahme, dass die Verteilungsfunktion ihrer empirischen Verteilungsfunktion entspricht, weitere Datensätze generiert.

Üblicherweise werden zwischen 1000 und 10.000 weitere Stichproben aus der vorhandenen Datenmenge gezogen. Logischerweise mit zurücklegen, anderenfalls hätte man das exakt selbe Ergebnis der ursprünglichen Datenmenge vorliegen. Durch die Ziehungen liegen also manche Datenpunkte mehrfach vor, andere dafür möglicherweise gar nicht.

Der Name Bootstrapping leitet sich übrigens von einem englischen Sprichwort ab: „Sich an den eigenen Füßen aus dem Sumpf ziehen.“ Der Bedarf an weiteren Stichproben wird nämlich aus der eigenen, bereits vorhandenen Stichprobe gedeckt. Dadurch wird die Zuverlässigkeit von Signifikanztests und die Konfidenzintervalle verbessert.

Um Bootstrapping anwenden zu können muss man in Statistik nicht mit einer 1,0 abgeschnitten haben. Kontaktiere uns gerne für einen Auszug eines Codes von Paraboost, durch welchen sich Bootstrapping ganz leicht umsetzten lässt.