Der Schutz der Privatspähre mit der neuen, aussagegemäß sicheren Suchmaschine, www.startpage.com

www.startpage.com

Der Schutz der Privatsphäre im Internet wird immer bedeutsamer, Datenskandale rund um facebook, google etc. und die fehlender Bereitschaft US-amerikanischer Konzerne deutsche und europäische Richtlinien umzusetzen, treibt die Nutzer in Alternativen wie beispielsweise startpage.com. Ein Dienst, der Beachtung verdient. Startpage in Kombination mit Ixquick sind Angabe gemäß die einzigen aktuellen Suchmaschinen, die einen regelmäßigen Zertifizierungsprozess von unabhängigen Experten durchlaufen. Damit bestätigt eine dritte, unabhängige Seite, dass IP Adressen zu keinem Zeitpunkt gespeichert, ausgewertet und/oder aufgezeichnet werden. Auch das Suchverhalten des jeweiligen Nutzers wird geschützt und nicht preisgegeben oder gar für Werbezwecke genutzt bzw. missbraucht. Bei vielen bekannten bzw. etablierten Suchmaschinenanbietern besteht die Gefahr des Datenmissbrauchs, da jedes Mal, wenn Suchanfragen gestartet werden, die Suchanfrage selbst, aber auch die Suchergebnisse gespeichert werden, IP-Adressen erfasst werden und Cookies gesetzt und ausgewertet werden. Da geht soweit, dass Suchbegriffe, Zeitpunkt der Suche, die ausgewählten Links und die Ergebnisse in gigantischen Datenbanken gespeichert und diese Daten genutzt werden. Der Nutzer verliert einen großen Teil seiner Datenhoheit.

Wenn man seinen eigenen Namen „googelt“ ist es schon sehr erstaunlich welche große Menge an Daten/persönlichen Informationen sichtbar sind, z.B. persönliche Interessen, Familienverhältnisse, politische Überzeugungen, Gesundheitszustände usw. Diese Informationen sind ein gefundenes „Fressen“ für Marketingexperten, Behördenmitarbeiter, Kriminelle und Hacker, die alle gern in den Besitz der persönlichen Suchdaten des jeweiligen Nutzers kommen möchten, um diese für eigene, dem Nutzer unbekannte Zwecke, zu gebrauchen/missbrauchen.

Es ist das erklärte Ziel von einigen Suchmaschinen, sämtliches verfügbares Wissen bzw. sämtliche verfügbare Informationen auf diesem Planeten zu katalogisieren und sichtbar und findbar zu machen. Leider können diese Daten leicht in falsche Hände geraten, da sie öffentlich für jeden unabhängig von seiner Intention verfügbar sind.

www.startpage.com will hier bewusst einen anderen Weg gehen: dabei soll die Privatsphäre geschützt werden in dem z.B. IP-Adresse NICHT aufgezeichnet werden. Es werden Angabe gemäß auch keine persönlichen Daten an Dritte weitergegeben. Die Suchergebnisse von Startpage werden dabei durch Google bereitgestellt, dass sichert die bewährte, hohe Suchergebnisqualität, da google gerade in Deutschland die beliebteste Suchmaschine ist.

Ich finde ein gutes Projekt.

Klingt einfach, ist wahrscheinlich aber sehr schwierig in der Umsetzung und Verbreitung.

Ich persönlich habe www.startpage.com zu meiner Startseite im Browser gemacht. Vielleicht ein kleiner Schritt zu mehr Datensicherheit für meine persönlichen Daten.

Dirk Stader

Erleichterung der Sanierung von Unternehmen (ESUG)

Die Sanierung von Unternehmen soll insgesamt erleichtert werden. Das ESUG trat am 01. März 2012 in Kraft und ist ein wichtiger Schritt für einen potenziellen Neustart für Insolvenzgefährdete Unternehmen im rahmen der Sanierung. Bisher konnte man in Deutschland die Unternehmensinsolvenz mit der faktischen Liquidation des Unternehmens gleichsetzen, da das Restvermögen zur quotalen Bedienung von Gläubigerverbindlichkeiten genutzt wurde. Das ESUG schafft durch seine neuen Regelungen die Grundlage für eine neue Insolvenzkultur bzw. mehr erfolgreiche Sanierungen in Deutschland, die sich an international bereits bewährte Vorgehensweisen annähert. Insolvenzgefährdete Unternehmen erhalten damit erstmals eine reelle Chance die faktische Liquidation zu vermeiden und sich zu sanieren. Sowohl Schuldner als auch Gläubigerinteressen werden durch das ESUG nachhaltig gestärkt:

  • Durch das Schutzschirmverfahren erhält der Schuldner die Möglichkeit unter der Aufsicht eines Verwalters innerhalb eines Zeitraums von drei Monaten ein Sanierungskonzept zu erarbeiten, das in einem anschließenden Insolvenzplan umgesetzt werden kann/soll. Das ESUG gibt hierbei den Spielraum für Sanierungen, dass Gerichte den vom Schuldner vorgeschlagenen Verwalter (Wirtschaftsprüfer, Steuerberater etc.) als vorläufigen Sachverwalter einsetzen können und sollen. Zudem können Anträge gestellt werde, bei denen es das Gericht untersagt, innerhalb dieses dreimonatigen Zeitraums Zwangsvollstreckungen gegen den Schuldner zu betreiben und bestehende Zwangsvollstreckungen können ausgesetzt werden. Es wird im Schutzschirmverfahren auch kein vorläufiger Insolvenzverwalter bestellt und der Schuldner kann weiterhin frei über sein Vermögen verfügen.
  • Im Rahmen des Planverfahrens können bestehende Gläubigerforderung in Geschäftsanteile umgewandelt werden (Debt-Equity-Swaps), allerdings nur mit Zustimmung der Gesellschafter des Schuldners. Dabei bringen Gläubiger eines Unternehmens, nach einer vorangegangenen Kapitalherabsetzung, ihre Forderungen im Rahmen einer Kapitalerhöhung als Sacheinlage in das Unternehmen ein. Hier geht m.E. das ESUG leider nicht weit genug, da es nicht möglich ist den Debt-Equity-Swap gegen den Altgesellschafterwillen durchzusetzen (wg. übermäßigen Obstruktionsrechten der Altgesellschafter) und auch der Gläubiger kann nicht dazu gezwungen werden Forderungen in Eigenkapital umzuwandeln. D.h. die Erfolgschance des Debt-Equity-Swaps hängt von der Kooperationsbereitschaft von Altgesellschafter und Gläubigern ab. Zudem verbessert sich die Umsetzbarkeit des Planverfahrens, da moderate Hürden eingezogen wurden, so dass einzelne Gläubiger nicht mehr in missbräuchlicher Weise das Wirksamwerden des Insolvenzplans verhindern können.
  • Das ESUG stärkt die Gläubigerautonomie, indem Unternehmen, deren Betrieb noch nicht eingestellt ist und die eine gewisse Marktbedeutung haben (Umsatz, Mitarbeiteranzahl etc.), die Möglichkeit erhalten, einen vorläufigen Gläubigerausschuss einzuberufen. Der Ausschuss hat ein wichtiges Mitspracherecht bei der Auswahl des Insolvenzverwalters sowie der Anordnung der Eigenverwaltung. Wenn der Ausschuss die Eigenverwaltung befürwortet, sollen die Gerichte an diese Entscheidung gebunden sein. Dies gilt auch für die vorgeschlagene Person des Insolvenzverwalters, die – eine einstimmige Einigung des Ausschusses auf einen Insolvenzverwalter vorausgesetzt – vom Gericht nur dann abgelehnt werden darf, wenn dieser offensichtlich ungeeignet ist.
  • Durch den Vollstreckungsschutz nach Verfahrensaufhebung soll vermieden werden, dass Forderungen, die nicht im Rahmen des Insolvenzverfahrens angemeldet wurden, zu einem späteren Zeitpunkt die Finanzplanung stören bzw. den Insolvenzplan gefährden. Hierzu wurde ein Vollstreckungsschutz nach der Verfahrensaufhebung installiert und Gerichte können dem Schuldner diesen Vollstreckungsschutz gewähren. Zudem wurden die Verjährungsfristen für verspätete Forderungen (also solche, die nicht zum Abstimmungstermin angemeldet worden waren) deutlich auf ein Jahr verkürzt.

Abschließende Bewertung: insgesamt ein guter Ansatz das Insolvenzrecht stärker mit dem Gesellschaftsrecht zu verweben. Es geht aber leider nicht weit genug, da Kompetenzstreitigkeiten der beteiligten Organ, Gruppen und Gerichte vorprogrammiert sind. Ob eine Sanierung damit leichter möglich ist, bleibt weiterhin fraglich und kann erst zu einem späteren Zeitpunkt abschließend geklärt werden, wenn geprüft werden kann, ob dieser Ansatz des Gesetzgebers wirklich zu einer höheren Anzahl von erfolgreichen Sanierungen geführt hat.

Dirk Stader

Systematisierung der Geschäftsmodelle im Internet

Geld verdienen im Internet, ist eigentlich nicht so schwer und sollte man einmal Verluste produzieren, dann kann man sich damit trösten, dass das Geld nicht weg ist, sondern nur einem anderen gehört.

Werbefinanzierte Geschäftsmodelle – Advertising Model:

Prominentestes Beispiel „google“: hierbei ist das Geschäftsmodell vollständig von Werbeeinnahmen abhängig und letzendlich auch darauf angewiesen. Dies Art des Geschäftsmodells geht dabei stark auf die Anfänge des Internets zurück. Grundvoraussetzung für einen geschäftlichen Erfolg ist dabei die Generierung von größmöglichem „traffic“ und zwar relativ unabhängig davon, ob es sich hierbei um „guten“ oder „schlechten“ traffic handelt. Inwiefern hierbei der ebenfalls von google behauptete Aufbau eines Markennamens durch reine Werbung im Internet eine Rolle spielt, mag durchaus bezweifelt werden. Allerdings hilft der Markenaufbau durch die diversen anderen Marketingkanäle auf jeden Fall – und vielleicht wird der Markenaufbau durch internetbasierte Werbeformate zusätzlich lanciert. Mag sein.  Böse Zungen behaupten, dass rein werbebasierte Geschäftsmodelle außerhalb der etablierten Beispiele á la google sich nur schwerlich etablieren lassen und möglicher Weise eher zufällig, denn geplant entstehen. Hierzu ist jeder zu einem Kommentar aufgefordert.

Affiliate Model

Betreiber von Webseiten werden finanzielle Anreize geboten in Form von Provisionen etc., wenn sie Nutzer bspw. auf die Seite eines Online-Händlers weiterleiten. Die Zielwebseite erhält hiermit vorzugesweise „guten“ traffic der konvertiert, dh. eine Transaktion auslöst. Die Zielwebseite vergütet diese Dienstleistung monetär und beteiligt somit den traffic-Lieferanten am Umsatz- bzw. Rohertragserlös. Vorzugsweise erfolgt die Honorierung transaktionsbasiert, d.h. bei Kauf, Anmeldung, Lead etc. Konditionell orientiert sich eine potenzielle Provision an der Güte des traffics, der durchgeleitet wird. Der Erfolg ist für den Affiliate-Anbieter grundsätzlich leicht zu messen und die Kosten-Nutzen-Relation dieser Maßnahme einfach zu überprüfen, da Performance abhängig.

Makler Modell – Brockerage

Es werden  Dienstleistungen, Produkte zwischen Anbieter und Kunde gehandelt. Umsatz wird hierbei durch Angebot und Nachfrage auf einer Internetplattform generiert. Hierbei gilt, je bekannter eine Internetplattform ist, desto höher ist die Anzahl der potenziellen Transaktionen. Erlöse werden hierbei ebenfalls transaktionsbasiert  erzielt, d.h. via Gebühren, Nutzungsentgelte, Mitgliedschaften etc. Beispielhafte Ausprägungen für dieses Geschäftsmodell sind Marktplätze, Auktionsplattformen wie ebay, amazon etc. Die technologische Funktionalität ist hierbei ein kompetitiver Erfolgsfaktor.

Subscriptionsmodel

Dies ist ein klassisches Abonnentenmodell, bei dem der Nutzer gegen entsprechende Bezahlung für einen definierten Zeitraum eine Leistung in Anspruch nehmen kann. In der Praxis finden sich häufig Subscriptionsmodelle in Kombination mit werbebasierten Geschäftsmodellen: die Leistung wird einmal im Grundkonzept meist mit verringertem Funktionsumfang inklusive Werbung angeboten und zum anderen als sog. Premiumdienst mit vollem Leistungsumfang meist ohne Werbung.

Utiliy Model

Hierbei wird ein Preis je nach in Anspruch genommenem Leistungsumfang (Anzahl der Seiten, Seitenaufrufe, Nutzungszeit etc.) in Rechnung gestellt. Der Nutzer profitiert von der Risikominimierung, Arbeits-, Zeit- oder Geldersparnissen.

Community-Model

Internetnutzer generieren hierbei eigene Inhalte, die auf der jeweiligen Internetplattform wiederum anderen Nutzer publiziert bzw. zur Verfügung gestellt werden. Das Modell an sich generiert keinen originären, monetären Erlös, maximal noch einen psycholgischen. Die meisten Communities außerhalb von Xing haben es bisher nicht geschafft eigene nachhaltige Erlösmodelle aufzubauen. Deshalb müssen hier wiederum werbebasierte Ansätze und Premiumdienstleitungen herhalten, um diese Geschäftsmodell am Leben zu erhalten. Einige Geschäftsmodelle werden sicherlich überleben, aber längst nicht alle, da insbesondere die enormen traffic-Kosten, die meisten Communities mittelfristig ins Jenseits befördern werden. Die Herausforderung hier heisst mit Sicherheit traffic-Monetarisation, ein universelles Erfolsmodell hat sich bisher allerdings noch nicht herauskristallisiert. Ob es die Nutzer von Communitier mittelfristig dulden werden, dass ihre zum Teil sehr persönlichen Daten im Internet vermarktet werden, bleibt zudem fraglich. Mal ganz nunabhängig von datenschutzrechtlichen Problematiken. Der antinome Zielkonflikt zwischen dem kommerziellen Ziel auf der einen Seite und der ursprünglichen Intention die Privatsphäre anderen zugänglich zu machen ist zudem auch noch nicht aufgelöst.

Händler/Herstellermodell

Das Internet dient Herstellern dazu ihre Produkte direkt und/oder indirekt an andere Händler oder Endkunden zu vertreiben und ist somit eine weitere Vertriebsschiene im Vetriebskonzept. Das Internet sorgt hierbei für eine hohe Preistransparenz und eine starke Wettbewerbssituation. Kunden können sich in kürzester Zeit einen guten Überblick über das aktuelle Preisgefüge und/oder Produktinformationen in einem Markt verschaffen ohne hier direkte Anfragen starten zu müssen. Bei diesem Geschäftsmodell tritt das Internet in unmittelbare Konkurrenz zum stationären Handel, bei deutlich besseren Fixkostenstrukturen. Allerdings darf hierbei der meist sehr hohe Marketingaufwand, der größtenteils google-induziert ist, nicht außer acht gelassen werden. Zweistellige Marketingbudget sind hierbei keine Seltenheit vor dem Hintergrund einer mittelfristigen Erfolgsstrategie. Ganze Branchen, wie beispielsweise die Musikindustrie kämpfen schon seit Jahren mit der scheinbar nachhaltigen Erfolglosigkeit des eigenen Geschäftsmodells.

Selbstverständlich basieren viele Geschäftsmodelle im Internet nicht auf den hier dargestellten „sortenreinen“ Geschäftsmodellen, sondern sind hybride Formen bzw. basieren auf entsprechenden Kombinationen der hier dargestellten Geschäftsmodelle.

Kommentare jederzeit herzlich willkommen.

Dirk Stader

Vorgehensweise beim Targetcosting

1.1     Zielkostenbestimmung

Die Bestimmung der Zielkosten kann für Produkte, Produktgruppen, Basismodelle, lebenzyklusphasenbezogen inkl. Berücksichtigung der beim Kunden anfallenden Kosten (Betriebskosten) erfolgen:

a) Festlegung des Target Price (Kundenpräferenz + Werterelation der einzelnen Produktmerkmale)

b) Festlegung der Target Margin (Gewinnmarge), hier meist Umsatzrentabilität, so daß auch das Absatzvolumen geschätzt werden muß

c) aus a) und b) erhält man die „allowable costs“, denen die sog. Standardkosten (Vollkosten aus Plankalkulation) gegenübergestellt werden

d) die letztendlich Festlegung der sog. Target costs erfolgt in Abhängigkeit von der verfolgten Strategie und der Wettbewerbsintensität

1.2     Varianten der Zielkostenbestimmung

a) Market into Company (Reinform), Zielpreis = Nutzenbündelpreis seitens der Käufer, geschlossene Marktausrichtung im Sinne einer Wertkette

b) Out of Company, Preis innerhalb Unternehmenssystem aus Erfahrungen ermittelt und auf Markttauglichkeit überprüft

c) Into and out of Company, Kombination a)+b)

d) Out of Competitor, Kenntnis der Standardkosten der potentiellen Wettbewerber (Status-Quo)

e) Out of Standard Costs, Abschläge von den eigenen Standardkosten auf Basis identifizierter Kostensenkungspotentiale

2.       Arbeitsschritte zur Ableitung von Zielkostenanteilen/Zielkostenzerlegung

Herunterbrechen der Gesamtproduktzielkosten auf:

a) Funktionskosten (sowohl für Objektfunktionen als auch für Verrichtungsfunktionen z.B. Service)

b) Komponentenkosten (Kosten für Haupt- und Teilbaugruppen)

c) Teilekosten

Ausgangspunkt ist die subjektive Kundensicht von Produktmerkmalen und -eigenschaften, die beispielsweise. mittels Conjoint Analyse http://stader.de/2009/10/17/conjoint-analyse/ ermittelt wird.

2.1     Produktfunktionen definieren (Bestimmung der Funktionsstruktur des neuen Produktes gem. Kundenanforderungsprofil)

a) harte Funtkionen = technische Leistung

b) weiche Funktionen = subjektiver Wert

2.2     Produktfunktionen gewichten

Gewichtung gem. Kundenpräferenz (z.B. 35% harte, 65% weiche Funktionen, und die Gewichtung innerhalb dieser beiden Hauptgruppen)

2.3     Grobentwurf entwickeln

Der Grobentwurf für das Produkt definiert diejenigen Produktkomponenten, durch die die Produktfunktionen insgesamt realisiert werden (z.B. Tintenversorgung und Tintenführung (=Produktfunktionen) werden durch die Produktkomponente Tinte realisiert). + Gegenüberstellung in einer Matrix.

2.4     Kostenschätzung für die einzelnen Komponenten (erwartete Kosten) + Eintrag in Matrix

2.5     Produktkomponenten gewichten

Mit welchem Gewicht einzelner Komponenten wird eine Teilfunktion realisiert? Als Gesamtergebnis erhält man eine Gewichtung der Produktkomponenten zur Realisierung der harten und weichen Funktionen.

2.6     Ermittlung Zielkostenindex

Bedeutung der Komponente für die Produktionsfunktion/Kostenanteil der Komponente   < 1 = zu teuer; > 1 = zu billig

2.7     Zielkostenindizes verbessern

Optimierung mit Hilfe Zielkostendiagramm; Zielkostenzone um optimalen Wert 1, nicht tolerierbare Abweichungen verbessern (Kneten von Kosten).

Dirk Stader

iPhone 4: Snap-in Adapter für BMW

iPhone 4 passt in den BMW Snap-in Adapter des 2G: Wie ich den allgemeinen Foren entnehmen kann, stellen sich viele BMW Fahrer die Frage, wie man die iPhone 4 Version mit den aktuellen BMW Modellen (2008-2010) koppeln kann. Einige Nutzer empfehlen hierbei den iPhone 3G Snap-in Adapter manuell, sprich mit einer Feile oder einem Teppichmesser so zu bearbeiten, dass das iPhone 4 hinein passt.

Diese Lösung war mir nicht elegant genug: Da ich noch einen alten Snap-in Adapter von meinem ersten iPhone 2G zur Verfügung hatte, habe ich diesen einfach mal mit meinen neuen iPhone 4 getestet. Und, erstaunlicher Weise, er passt. Zwar rastet die Arretierung nicht vollständig ein, dies ist aber nicht weiter problematisch, da die, durch das Gerät entstehende, Spannung im alten Snap-in Adapter von BMW ausreicht, um das iPhone 4 zu fixieren. Also hier die Lösung für das Problem: bei ebay oder bei BMW einen Snap-in Adapter für die erste iPhone-Generation kaufen und diesen in den BMW einbauen.

Es wird funktionieren.

Ich habe übrigens festgestellt, dass der Emfpang und die Gesprächsqualität bei einem Betrieb eines iPhones im BMW-Fahrzeug deutlich besser ist als über eine reine Bluetooth-Verbindung. Es liegt wohl daran, dass hierbei der faradaysche Käfig des Fahrzeugs überbrückt wird, da der Snap-in Adapter eine direkte Verbindung zur intergrierten Dachantenne des BMW besitzt.

Klingt einfach, ist auch so.

Gruß

Dirk Stader

Die Erderwärmung nur eine wissenschaftliche Farce?

Der Zeitwert wissenschaftlicher Erkenntnisse geht mittler Weile gegen einen Grenzwert der nicht sehr weit entfernt ist von Null. Nunmehr hat der CRU-Forschers Jones zugegeben sich im Rahmen der Climategate“-Affäre und dem Umgang mit den wichtigen Klimamessdaten wohl vertan zu haben. Das muss man sich wirklich einmal auf der Zunge zergehen lassen. Da gibt einer der führenden Wissenschaftler auf diesem Gebiet, nachdem er Jahre lang, eine richtig große Welle gemacht hat und die Erde an das apokalyptische Abendmahl geschwätzt hat, nunmehr zu, dass es seit etwa 15 Jahren keine statistisch signifikante globale Erwärmung mehr gegeben hat, und auch, dass frühere Perioden ähnlich warm waren wie die derzeitige Epoche – im mittelalterlichen Klimaoptimum etwa, während dessen die Wikinger in Grönland siedelten und es Weinbau in Pommern und Südschottland gab, hätten die Temperaturen die heutigen Werte überstiegen. Das ist doch eine unglaubliche Stumpfsinnigkeit.

Weiterhin informiert der gleichnamige hochrangige Wissenschaftler, dass er wichtige Aufzeichnungen von Klimadaten, und zwar genau die, die den berühmten und überall zu Grunde gelegten „Hockeystick“-Effekt nachweisen sollen, verloren hat. Armes Wissenschaftler Gehirn, so voller Lücken und Irrtümer. Mensch, Jones, wenn du es nicht beweisen kannst, dann sag doch einfach: „ich habe keine Ahnung und bin mein Geld wohl nicht wert“. Das wäre zumindest eine Aussage die richtig wäre und wohl auch nach Jahren nicht falsifiziert werden kann.

Wissenschaftler kommt übrigens von Wissen schaffen, nicht Unsinn verbreiten oder Theorien aufstellen. Allerdings ist sich Jones nunmehr wieder laut eigener Aussage sicher, dass sich die Erde erwärmt und dafür sei das Missmanagement der Menschen verantwortlich. Einen wissenschaftlichen Beweis bleibt er wiederum, wohl aus guten Grund, schuldig. Ich gehe davon aus, dass er diesen Beweis nicht erbringen kann.

Ich weiss nicht, ob die Erde sich erwärmt oder nicht, ich weiss aber, dass ich schlecht recherchierende und arbeitende Menschen egal ob Journalisten (siehe auch http://stader.de/2010/02/20/zu-viel-transparenz/), Historiker oder eben Wissenschaftler nicht ausstehen kann. Wenn einer einen Job macht, dann richtig oder gar nicht.

Klingt einfach, ist auch so.

Dirk Stader

Die Onliner und ihre Kunden – häh was sind Kunden?

Wie jeder, der mich kennt weiß, ist die Online-Branche für mich relativ neu. Insgesamt ist es schon erstaunlich mitten drin zu sein und zu sehen wie sich alles bewegt, verändert und ausrichtet. Dennoch glaube ich, dass es noch einer gewissen Wegstrecke bedarf, bis wir uns in der Online-Branche professionalisiert und als nachhaltig etabliert haben. Was mich am meisten erstaunt, ist allerdings, dass die meisten Onliner in den Dimensionen „Traffic“, „Conversion“, CPC, CPL, etc. denken, aber einen wichtigen Faktor, der für mein Empfinden immer im Mittelpunkt des Wirtschaftslebens steht, mehr oder weniger vollkommen vernachlässigen, wenn nicht sogar ignorieren: den Kunden und sein Bedürfnis.

Diese Erkenntnis ist  mir auf einem der letzen Management-Meetings sehr deutlich geworden. Es ging um die kritischen Erfolgsfaktoren, die ein Unternehmen von den anderen unterscheidet. Ellen lange Listen wurden im Rahmen eines Brainstormings erarbeitet: Technik, SEO, SEA, Team, Stickyness, um nur einige zu nennen, alles war dabei. Nur eines fehlte und schien so gar nicht auf der Agenda eines Online-Unternehmens zu stehen: der Kunde und sein Bedürfnis:

Warum ist das so, warum vernachlässigen wir den Faktor, um den es hier geht?. Warum steht der, der die Musik bezahlt bei uns Onlinern nicht im Mittelpunkt unserer Betrachtung bzw. unserer Bemühungen?

Nur zur Erinnerung: ein komperativer Konkurrenzvorteil (KKV) ist das, was uns, in der subjektiven Wahrnehmungswelt des Kunden, besser erscheinen lässt, als unsere Wettbewerber. Der Kunde bezahlt unsere Gehälter bzw. Dividenden. Warum wird dieses Element bei Onlinern so sträflich vernachlässigt.

Klar unsere Devise mit viel Geld, das wir bei www.google.de ausgeben, so viele Internetuser wie möglich auf unsere Plattformen zu schaufeln und uns anschliessend beschweren wie teuer www.google.de ist, ist da sicherlich auch ein Weg, wenn auch nicht der effizienteste, und wenn ich länger darüber nachdenke, sogar noch nicht einmal der effektive.

Ich kann nur jedem Onliner genauso wie jedem Offliner den Tip geben „Kümmert euch um eure Kunden“ und findet heraus was euer Kunde wirklich will und sucht.

Dies spart mit Sicherheit die ein oder andere Million, die wir sonst gerne im Marketing verbrennen.

Klingt einfach, ist auch so.

Dirk Stader

Der Transaktionskostenansatz als Entscheidungsunterstützung

Als Teil der Neuen Institutionellen Ökonomie stellt der Transaktionskostenansatz einen sowohl theoretisch fundierten als auch pragmatisch orientierten Denkansatz dar, der das mikroanalytische Instrumentarium für eine Untersuchung der Koordinationsmechanismen sozioökonomischer Austauschbeziehungen bereitstellt und somit als Gestaltungsgrundlage zwischenmenschlicher Leistungsbeziehungen dient. Der Transaktionskostenansatz geht zurück auf einen 1937 veröffentlichten Aufsatz von R. Coase wurde seit Anfang der 70er Jahre im wesentlichen von O.E. Williamson weiterentwickelt und heute u.a. von A. Picot vertreten.

Unter einer Transaktion wird der Prozeß der Planung und Vereinbarung eines Leistungsaustausches verstanden, bei dem jedoch nicht der physische Leistungsaustausch selbst, sondern die vorgelagerte Übertragung von Verfügungsrechten im Mittelpunkt steht. Transaktionskosten – auch Koordinationskosten genannt – sind Kosten, die bei der Bestimmung, Übertragung und Durchsetzung dieser Verfügungsrechte für einen Leistungsaustausch innerhalb von Unternehmen und Märkten deshalb auftreten, weil die am Leistungsaustausch Beteiligten über verschiedene Interessen und unterschiedliches Können und Wissen verfügen. Es handelt sich im wesentlichen um Kosten der Information und Kommunikation für Anbahnung (z.B. Informationssuche und -beschaffung über potentielle Transaktionspartner), Vereinbarung (z.B. Verhandlungskosten, Vertragsformulierung, Koordination zwischen Vertrieb, F&E, Produktion und Einkauf), Abwicklungskosten (z.B. Prozeßsteuerung, Management), Kontrolle (z.B. Überwachung von Qualität, Terminen, Mengen, Preisen, Geheimhaltung) und Anpassung (z.B. Zusatzkosten für nachträgliche Änderungen).

Ziel ist es, die Transaktionskosten durch optimale Kombination der Leistungsarten, die ein Unternehmen zur Erfüllung seiner marktlichen Aufgabe benötigt, mit der geeignetsten Koordinationsform zu minimieren. Die Quantifizierung der Transaktionskosten ist dabei problematisch, da sie i.d.R. unter die Kategorie der Gemeinkosten fallen und damit erhebliche Schwierigkeiten der Erfassung und verursachungsgerechten Zurechnung mit sich bringen. Die Eignung der Transaktionskostentheorie zur Entscheidungsunterstützung wird hierdurch jedoch nicht eingeschränkt, da die Koordinationsform, die die vergleichsweise geringsten Transaktionskosten verursacht, indirekt anhand der Transaktionseigenschaften zu ermitteln ist.

Die Höhe und Struktur der Transaktionskosten sowie die Effizienz alternativer Koordinationsformen ist abhängig von den Transaktionseigenschaften der Leistungen hinsichtlich Spezifität, strategischer Bedeutung, Unsicherheit und Häufigkeit. Die wichtigste Eigenschaft ist die Spezifität. Der Spezifitätsgrad einer Leistung ist um so höher, je größer die Wertdifferenz zwischen der beabsichtigten und der nächstbesten Verwendungsmöglichkeit ist (Quasi-Rente). Bei hoher Spezifität kommt es zu „monopolartigen“ Leistungsbeziehungen mit wechselseitigen Abhängigkeiten und Sicherungsbedürfnissen (Small-Numbers-Situation). Aufgrund der begrenzten Rationalität der Transaktionspartner entstehen Spielräume für opportunistisches Verhalten, deren Ausnutzung vor allem bei hoher Spezifität zu hohen Transaktionskosten (z.B. bei Wechsel des Transaktionspartners) führen kann (Spezifität als dominierende Einflußgröße der Transaktionskosten). Mit zunehmender Spezifität wird damit ein stabiler und integrativer Transaktionsrahmen erforderlich, der sich durch einen hohen Integrationsgrad realisieren läßt. Unspezifische (standardisierte) Teile dagegen verursachen geringere marktliche (z.B. Kosten bei Austausch des Vertragspartners) als hierarchische bzw. interne (oftmals hohe Verwaltungskosten) Transaktionskosten und sollten daher mit einem niedrigen Integrationsgrad einhergehen.

Die zweite herausragende Eigenschaft ist die strategische Bedeutung der Leistung. Strategisch bedeutsame Leistungen gehen meist mit einer hohen Spezifität einher und sind daher im Rahmen eines hohen vertikalen Integrationsgrades zu erstellen. Darüber hinaus würde der Schutz des strategisch bedeutsamen Wissens bei niedrigem Integrationsgrad hohe Überwachungs- und Kontrollkosten nach sich ziehen.

Die Wirkungsweisen o.g. Eigenschaften werden durch Unsicherheit hinsichtlich qualitativen, quantitativen, terminlichen oder technischen Änderungen unterstützt: Zunehmende Unsicherheit erschwert eine längerfristige vertragliche Absicherung. Die Transaktionskosten für Vertragsformulierungen und nachträgliche Anpassungen etc. können insbesondere bei spezifischen und/oder strategisch bedeutsamen Leistungen bis auf ein prohibitives Niveau steigen. Änderungsintensive, aber standardisierte Leistungen dagegen können effizienter über marktliche Verträge bereitgestellt werden. Daneben wirkt auch die Häufigkeit der Leistungserstellung unterstützend. Je öfter spezifische und/oder strategische Leistungen erforderlich sind, desto größer ist die Tendenz zu höheren Integrationsgraden.

Die Ableitung von Strategieempfehlungen wird neben den Transaktionseigenschaften auch von Ein- und Auslagerungsbarrieren insbesondere bezüglich verfügbarem Know-how und Kapital beeinflußt. Ist aufgrund der Eigenschaften der Leistung ein hoher Integrationsgrad anzustreben, stehen dem jedoch Know-how und/oder Kapitalbarrieren entgegen, erhöht dies die Notwendigkeit für vertikale Kooperationsformen wie Strategische Allianzen, Joint Ventures, F&E-Kooperationen etc.

Transaktionskostenansatz

Abb.:  Zusammenhang von Transaktionseigenschaften und Integrationsgrad

Quelle: In Anlehnung an Picot, A. (1991), S. 346.)

Neben der o.g. Quantifizierungsproblematik, die eine Skalierung der Ergebnisse in nur ordinaler Form zuläßt, für die Entscheidungsunterstützung jedoch von untergeordneter Bedeutung ist, besteht eine Kritik in der häufigen Vernachlässigung von Produktionskosten. Mit dem Argument, daß Produktions- und Transaktionskosten von gleicher Wirkungsrichtung sind oder daß nur geringfügige zwischenbetrieblichen Produktionskostenunterschiede bestehen, beschränken sich viele Autoren auf die Transaktionskostenanalyse. Da jedoch auch eine gegenseitige Kompensation denkbar ist, scheint eine ergänzende Betrachtung von Produktionskosten zweckmäßig. Darüber hinaus ist die Nichtberücksichtigung der Ganzheitlichkeit des Leistungserstellungsprozesses sowie individueller operativer Einflußgrößen zu kritisieren. Der Transaktionskostenansatz stellt jedoch insofern einen sinnvollen Theorierahmen für die Leistungstiefenoptimierung dar, daß er insbesondere einige wesentliche strategische Kriterien berücksichtigt.‘