Annahmen extrahieren und sichtbar visualisieren
Dies ist der Punkt in meiner Lean Startup Artikelserie, in dem Alexander Osterwalder die Bühne betritt. Er hat mit seiner Business Model Canvas (BMC) und der Value Proposition Canvas (VPC) Quasi-Industriestandards zur konzeptionellen Beschreibung eines Geschäftsmodells geschaffen . Beide sind weltbekannt, weit verbreitet und gut dokumentiert. Ich werde sie daher hier nicht noch einmal erläutern. Sie spielen aber eine kritische Rolle für das Externalisieren und diskutierbar machen unserer Geschäftsmodell- und Wertversprechen-Szenarien. Was unser Lean Startup Team nämlich tun wird, ist: Jene VPC und BMC nehmen, von der sie sich geeinigt haben, dass sie am vielversprechendsten sind und dass sie sie abtesten wollen. Sodann jene kritischen Annahmen aus den einzelnen Building-Blocks heraus extrahieren, die so kritisch sind, dass sie, wenn sie ‘nicht wahr wären’ das ganze Geschäftsmodellszenario zum Implodieren bringen würden. Dieser Schritt nennt sich Assumption Mapping und ist in seinen Detailschritten wunderbar dokumentiert von David Bland (click here).
Übrigens, Lean Startup Teams haben feine Antennen dafür, wenn ein Teammitglied mit einer wackeligen Annahme, die nur auf seiner Weltsicht fußt, argumentiert. Denn dann sagt die Person nicht, „ich habe hier Daten und bin hochzuversichtlich dass #Annahme wahr ist/funktionieren wird“, sondern sie wird sagen „Also ich glaube ja, dass …“. Da nun jedes andere Teammitglied ja auch was anderes »glauben« kann und sich darauf schwer ein Geschäftsmodell aufbauen lässt, gilt in Lean Startup Teams die Devise von Edwards Deming: „In god we trust, everybody else bring data.“
Risikoreiche Annahmen zuerst!
Dies beantwortet kurz die erste Frage: Wo kommen die Annahmen her; wie macht man sie sichtbar; und wie priorisiert man sie?
Hypothesen bilden, Experimente designen, durchführen und messen
Der nächste Schritt ist die Hypothesenbildung. Sagen wir, das Team pickt sich die drei bis fünf der kritischsten Annahmen heraus und überlegt, wie es sie testen kann. Je nach Charakter und Fragestellung hinter der Annahme wird es sich für ein eher öffnendes (generatives) oder für ein schließendes (evaluatives) Experimentdesign entscheiden. Im letzteren Fall ist eine disziplinierte Hypothesenbildung besonders wichtig.
Schauen wir uns einmal ein historisches Lean Startup Beispiel für einen sog. Channel-Test an: Stellen Sie sich vor, sie sind im Jahre 1999, sie sind Nick Swinmurn, der Gründer der Firma Zappos in den Anfängen des Internetshoppings. So verrückt das klingen mag, aber die wohl risikoreichste Annahme für Nick (und vor allem seine Investoren, die er ins Boot holen wollte) damals war „People will buy for shoes online.“ / „Die Leute werden online Schuhe kaufen.“ So etwas gab es einfach noch nicht und es war nicht klar, ob es Kunden gäbe, die bereit sind ohne Anprobieren und live gucken können, das ‘Risiko’ einzugehen Schuhe zu kaufen.
Nicks ‘Make-or-Brake’ Annahme war also:
„Wir glauben, dass die Leute online Schuhe kaufen werden.“
Wir erinnern uns: im Lean Startup geht es in 90 % der Fälle darum tatsächliches menschliches Verhalten zu messen. 99 % aller Unternehmen würden jetzt klassische Marktforschung mit Fragebögen oder Fokusgruppen betreiben à la „Wie wahrscheinlich ist es, dass sie Schuhe online bestellen würden?“ Wir können in diese Artikelserie nicht darauf eingehen, warum klassische MaFo für solche Fragestellungen nicht funktioniert, denn dies ist ein komplexes Thema für sich. Darum belassen wir es bei diesem vereinfachten Einschub: Im Lean Startup sind Fokusgruppen und MaFo-Fragebögen das letzte Mittel der Wahl — meist werden sie ganz vermieden, denn sie funktionieren erfahrungsgemäß nicht!
Wie ist nun aber Nick an die Sache rangegangen ohne gleich ganz Zappos fertig zu bauen? Ganz einfach: Er hat beliebte Schuhmodelle fotografiert, sie auf eine erste Testwebsite gestellt, diese bei Google promotet und geschaut, ob die Leute bestellen. Wenn eine Bestellung einging, ging er persönlich ins Schuhgeschäft, kaufte das Paar und sandte es seinem Kunden. Mit wenig Aufwand konnte er also testen, ob seine Annahme richtig oder falsch war.
Nick hätte wahrscheinlich nie davon gesprochen, dass er eine Hypothese testet. Es ist einfach nur sein natürliches und intuitives Handeln gewesen damit er weiter kommt. Und es ist die genau dieses Handeln von echten Unternehmern, welches Steve Blank, Bob Dorf und später Eric Ries , über Jahre beobachtet, nachträglich kodifiziert und in eine für uns Corporate Innovatoren erlernbare Sprache gebracht haben. Übersetzt in eine post-rationalisierte Hypothese im Sinne des Lean Startup Ansatzes würde Nicks Experiment Design so aussehen:
Wir glauben, dass … | in folgendem Ergebnis münden wird: … | Dafür messen wir: … | Wir wissen, wir waren erfolgreich, wenn … |
---|---|---|---|
… ein ‘Pretend-to-Own’ Test, in dem über Google AdWords akquirierte Nutzer online Schuhe in einem Fassadenwebshop kaufen … | Wir werden Schuhe online verkaufen. | Die Click-Through-Rate (CTR) in Suchmaschinen, den Inbound Traffic und die entsprechende Konversionsrate der Verkäufe auf der Testwebsite. | … sowohl unsere CTR als auch Konversionsrate mindestens 10 % beträgt (heute eher 1 %, aber es war 1999!).* |
[Experiment] | [Ergebnis]. | [Metrik]. | [Vorhersage]. |
Fassen wir also noch einmal zusammen. Der Lean Entrepreneur wird, ob bewusst oder unbewusst, seine Annahmen in strukturierte Hypothesen umwandeln, die mit einer Erfolgsmetrik daherkommen (meist um menschliches Verhalten zu messen). Um diese zu messen, überlegt er sich ein geeignetes Experimentdesign und einen Prognose-/Schwellwert zu seiner Metrik, ab dem sein Experiment als »erfolgreich oder gescheitert« gelten soll. Dann setzt er sich gemäß seines Zeitbudgets einen Zeitraum, in dem das Experiment laufen soll, analysiert die Daten/Ergebnisse und entscheidet seine nächsten Schritte. Er verbleibt also so lange im Build-Measure-Learn Loop bis er eine gewisse Sättigung erreicht hat in seiner Assumption-to-Knowledge Ratio, seinem Annahmen-zu-Wissen Verhältnis, und den Lean Startup Lernzyklus verlassen kann, weil er Problem-Solution, Product-Market und Business Model Fit erreicht hat. Oder einfacher gesagt: Wenn er zuversichtlich genug ist, dass seine vormals blinden Flecken aufgedeckt sind und er genug Signale aus dem Markt erhalten hat, dass dieses Business klappen kann und es sich lohnt, das Produkt »richtig« zu bauen.
Somit hätten wir kurz die Fragen beantwortet, wie man eine Hypothese aus einer Annahme formuliert und wie man diese über Experimente testen kann.
Experiment Design — Creativity meets Analytics
Bleibt die letzte offene Frage: woher kommen denn die Ideen für die Designs solcher In-Market-Experimente? Die Antwort lautet: Der Kreativität sind keine Grenzen gesetzt. Genau hier unterscheidet sich nämlich der kreative Gründer und Lean Entrepreneur vom nach Strategierezeptbuch operierenden MBA oder Manager. Ersterer wird immer ungewöhnliche Wege finden vom Markt Signale zu erhalten, damit er mit seinen knappen Ressourcen haushalten kann (siehe die Beispiele in Tabelle). Letztere haben hatten tiefere Taschen und versuchen mit teurer Marktforschung, extern in Auftrag gegebenen Studien und eingangs erwähnten Oldschool-Strategietools ihre Risiken zu minimieren. In unserer Erfahrung gewinnt im Kontext hoher Unsicherheit und der Erschließung neuer Märkte immer der Lean Entrepreneur. Fortschrittliche Großunternehmen haben dies aber erkannt und versuchen speziell im Rahmen ihrer Digitalisierungsinitiativen diese Art des Arbeitens mehr zu praktizieren. Dabei kommt ihnen zugute, dass sich für gewisse Fragestellungen — speziell in digitalen Geschäftsmodellen — Experiment Design Best Practices herausgebildet haben.
Beispiele für kreative Experimentdesigns
Testdimension Welche Frage(n) soll das Experiment beantworten? | Exemplarische Experiment Designs Was kommt hier oft in der Praxis zum Einsatz? | Aktuelle und historische Fallstudien |
---|---|---|
Problem Ist dies ein Problem, das es wert ist zu lösen? | Probleminterviews, Landing Pages, Crowdfunding | Avenir Telecom, Energizer P18K Pop (2019): Ist die Welt bereit ein 18.000 mAh Smartphone in der Größe eines Backsteins zu nutzen dafür dass man es eine Woche lang nicht laden muss? → Nein, Problem war nicht groß genug. Pebble (2012): Ist eine kritische Masse an Menschen bereit für eine echte Smart Watch? → Ja. Riesenerfolg. |
Kunde Ist diese Kunden-/Käufergruppe, die richtige für unsere Lösung? | Problem- und Lösungsinterviews, Emailkampagnen, Landing Pages, Mock Sales | Kutol, PlayDoh (1950s): Niemand interesierte sich für Kutols Tapetenreiniger. Bis die McVicker Brüder eine „Customer Discovery“ im besten Wortsinne machten: Lehrer, Familien und Kinder zweckentfremdeten das Produkt als Spielknete. Stewart Butterfields Pivot von Game Neverending zu Flickr (2004): Können wir Frontend und Funktionalitäten unseres (unerfolgreichen) Spieles mit seinem beliebten Fotouploader nutzen, um einen Dienst zu bauen, in dem man in Echtzeit mit Fotos interagieren kann? → 2008 Verkauf an Yahoo. Lego Night Mode (2020): Wer im Store der Lego World einen Kasten dieser neuen Serie mit an die Kasse nahm, erlebte eine Überraschung: Er war Teil eines Mock-Sale Experiments in dem die Attraktivität dieser Serie mit echten Kunden getestet wurde. Kaufen konnte er diese noch nicht, da sie noch gar nicht existiert. Lego lernte aber damit, mit welchem Kundensegment, die Serie am meisten resoniert. |
Lösung Ist unser Wertversprechen attraktiv genug um die derzeitigen Alternativlösungen unserer Kunden bzw. Käufer abzulösen? | Spec Sheets, Landing Pages, Crowdfunding, etc. | James Watts Dampfmaschinen Wertversprechentest (1776): Wird die Pferdestärke als vom Kunden her gedachte Metrik mit Minenbesitzern resonieren? Und kann ich jene mit einem performance-basierten Geschäftsmodell zur Adoption der neuen Technologie überzeugen? GE, Fuel Cells (2014): Wie können wir ohne bereits einen kompletten Piloten/techn. Prototyp einer Maschine bauen zu müssen die Attraktivität unserer anvisierten Lösung testen? → Datenblatt-Experiment. Joel Gascoigne, Buffer (2010): Ist es nur mein Bedürfnis, oder brauchen auch andere Menschen eine dezidierte Software zum „Tweets in eine Warteschlange stellen“? Würde sich der Bau eines solchen Tools lohnen? → Ja! Überwältigendes Echo. |
Features Wie genau soll denn unsere Lösung konfiguriert und dargeboten werden? | Co-Kreation, Multivariate bzw. A/B Tests, Fake Door Tests, etc. | Google G-Suite: Kaum merklich ändert Google permanent Funktionalitäten, Anordnungen und Icon-Designs im Interface von Docs, Sheets und Drive um jene Variante zu finden, die am besten für die größte Masse an Nutzern funktioniert. Netflix: Coverbilder von Filmen in Menüs: Welches Bildvariante hat das Zeug dazu, die Aufmerksamkeit innerhalb von 90 Sekunden zu bekommen und für die höchste CTR / Einschaltquote zu sorgen? Mobisol (2012): Co-Kreation von besseren Installationsanleitungen mit hoher Usability (sprich: wenig techn. Ingenieursjargon) mit Installateuren in ländlichen Gegenden südlich der Sahara. Notino (2021): Lohnt es sich, das Geld für mehrere Sprachvarianten auf unserer Schweizer Website auszugeben? |
Geschäftsmodell Wie stellen wir sicher, dass wir die Lösung effizient, skaliert und profitabel bereitstellen können? | Wizard of Oz und Concierge MVPs, Technische PoC Experimente und Piloten, Prozessumstellungs-experimente, etc. | Lufthansa iHub Mission Control MVP (2018): Mit welchen Tasks werden unsere Nutzer uns, bzw. unseren zukünftig geplanten Chatbot, beauftragen? Können wir dies profitabel abbilden? → Pivot GE, Fuel Cells Pilotanlage + Pilotkundentests (2014): Sind wir technisch in der Lage, die Festoxid-Brennstoffzellen (SOFCs) skaliert zu produzieren? Was braucht es, um diese profitabel bei (Pilot)Kunden zu betreiben? Was können wir mit ihnen lernen? Fredrik Garneij, Ericsson, „IPv4 as a Service“ Proof-of-Concept (2016): Ein Beispiel für ein Lean Experiment, welches zwar nicht bewusst von der Organisation aufgesetzt wurde (im Gegenteil), aber wunderbar den Spirit von Low-Cost-Experimentieren zum Testen von techn. Machbarkeit und organisationsinterner Akzeptanz in sich trägt. |
Preisfindung Welches Erlös- und Preismodell ist am attraktivsten, sowohl für Kunden/Käufer und als auch für uns selber? | MVP- und Lösungsinterviews, A/B bzw. Split Tests, etc. | Amazon, Split Testing: Am Anfang nutzte der Onlineriese diese Art der Preisfindungsoptimierung nur für sich selber. Mittlerweile stellt er die Möglichkeit auch seinen Händlern zur Verfügung. Crowdfunding und Pre-Sales: Die Beispiele von oben, wie Pebble, wo Kunden mit Ihrer Kreditkarte abstimmen, oder bei GE Fuel Cells, wo als Ergänzung zum Datenblatt mit Absichtserklärungen ein Pricing getestet werden kann, können helfen, die Preisfindung zu klären. Aber auch Pre-Sales-Experimente wie Teslas Vorreservierungen neuer Modelle helfen beim Testen der Akzeptanz von Preismarken. |