Scientific Abstracts

Real Time Bidding (RTB) zur Performancesteigerung im Re-Targeting





Bedingt durch viele Anbieter und Onlineshops und deren steigenden Tendenz ist im Internet ein klarer Käufermarkt entstanden. Dadurch besteht nur eine geringe Wahrscheinlichkeit des Wiederbesuchs, wenn ein Kunde auf der Angebotsseite oder dem Shop nichts gekauft hat.

Die Wahrscheinlichkeit des Wiederbesuchs wird durch das so genannte Re-Targeting erhöht, dabei handelt es sich um Werbung von Produkten des besuchten Shops die auf anderen Seiten angezeigt werden, die der Kunde im weiteren Verlauf besucht.

Real Time Bidding optimiert diese Methode des Online Marketings und ist in den USA bereits fester Bestandteil des Onlinewerbemarktes.

1. Definition Real Time Bidding

Real Time Bidding bezeichnet die automatische Versteigerung von Werbeflächen in Echtzeit pro AdImpression (Werbeeinblendung). Aktuelle Technologien können durch Targeting Maßnahmen erkennen wann ein Kunde eine Website bzw. einen Online Shop besucht. Dabei werden Daten in Cookies und Nutzerprofilen auf Servern gespeichert. Durch das Retargeting wird der Nutzer durch die Daten im Cookie oder seinen Nutzerprofil auf den anderen Seiten die er besucht identifiziert.

Über die gespeicherten Daten kann ermittelt werden an welchen Produkten der Kunde interessiert ist bzw. war. Es wird dem Advertiser ermöglicht dem Kunden zielspezifische Werbung einblenden zu lassen. Die Buchung der Werbefläche erfolgt über Bidding-Technologien von Werbenetzwerken wie z.B. Google Adsense. Das Bietverfahren läuft dabei automatisch über Adserver zwischen verschiedenen Werbetreibenden innerhalb von Millisekunden ab. Die Höchstgebote werden vorher von den werbenden Unternehmen festgelegt. Die Höhe der Preise richten sich nach Angebot und Nachfrage von Fläche sowie dem Userprofil. Da sich durch das Profil analysieren lässt wie relevant das Produkt für den Kunden ist.

2. Chancen von Real Time Bidding

Diese Methode bietet einige Vorteile für das Unternehmensmarketing.

Zum einen werden die Streuverluste der eingeblendeten Anzeigen minimiert, da durch die Datenanalyse eine zielgenauere Werbung geschaltet werden kann. Zum anderen werden Zielgruppen besser durch die vorhandenen Nutzerprofile erreicht. Dies führ zu geringeren Kosten und einem besseren Preis-Leistungsverhältnis.

Auch das so genannte Cherry Picking ist vorteilhaft, dabei werden Anzeigen nur für User angezeigt die hochrelevant sind.

Desweiteren erfolgt eine Absicherung gegenüber der Konkurrenz deren Werbung nicht angezeigt wird, wenn die eigene Firma die Werbefläche erfolgreich ersteigert hat.

Für den Advertiser ist dies Verfahren vorteilhaft, da er immer den höchstmöglichen Preis für seine Werbefläche bekommt, die die Werbetreibenden bereit sind zu zahlen. Durch das Bieten können daher auch höhere Erlöse für eine Werbefläche erreicht werden.

Erste Untersuchungen zeigen das die Werbeanzeigen über RTB 30 bis 40% mehr Leistung bei gleichem Budget haben.

3. Risiken von Real Time Bidding

Für das Real Time Bidding werden technische Voraussetzungen benötigt die Kosten verursachen. Außerdem ist in Deutschland der Kontakt zwischen Publisher und Advertiser meist nur über Agenturen möglich die aus Budgetinteressen das Real Time Bidding verhindern, da sie dort nicht am Gewinn partizipieren können.

Die preisliche Variabilität kann vorteilhaft aber auch nachteilig sein, da es zum Teil günstiger aber auch teurer sein kann die Werbeanzeigen über das Real Time Bidding zu platzieren.




4. Zusammenfassung

Die Methode des Real Time Bidding ist eine neue effiziente Marketingstrategie zur Unterstützung des Retargetings und führt bewiesener maßen zur Performancesteigerung. Der Markt in Deutschland wächst noch und wird zunehmend bedeutender.

Wenn die technischen Voraussetzungen der Werbetreibenden stimmen soll laut Prognose der International Data Corporation ein Wachstum von 100% jährlich in dem Bereich möglich sein.

 

Dieser Beitrag dient zur Orientierung und sollte nicht 1:1 für die Prüfungsleistung übernommen werden !

5. Weitere Infos

YouTube-Video das Real Time Bidding kurz und knapp erklärt (englisch)

Infografik über das Real Time Bidding (englisch)

 

 
Everything-you-need-to-know-about-Real-Time-Bidding

(Grafik: WhoIsHostingThis)

Scientific Abstract – Lokales Affiliate Marketing

Lokales Affiliate Marketing

Durch die für Unternehmen immer größer werdende Konkurrenz im Internet, ist es für diese wichtig neue und innovative Marketingstrategien einzusetzen. Die wachsende Branche des Affiliate Marketing bietet hier eine kostengünstige Möglichkeit zur Vermarktung für die Unternehmen. Auf dem ersten Blick scheint sie nur attraktiv für große Unternehmen, sie bietet aber auch Potenziale für lokalgebundene Betriebe.

Affiliate Marketing ist ein Begriff des Online Marketings. Allgemein handelt es sich dabei um eine Form des Provisionsgeschäfts, basierend auf Vermittlungsprovision über internetgestützte Vertriebsarten.

In der Regel vergütet ein kommerzieller Anbieter (Merchants) seine Vertriebspartner (Affiliates) durch Provision, dabei stellt der Produktanbieter die Werbemittel, wie Bilder oder Beschreibungen, zur Verfügung. Diese kann der Affiliate in seine Vertriebskanäle, meistens Webseiten aber auch z.B. E-Mails, integrieren. Die Werbemittel enthalten Codes zum Erkennen der einzelnen Partner.

Die Affiliates werden nur bei Erfolg vergütet, wofür mehrere Modelle existieren. Hierbei handelt es sich um Pay-Per-View, Vergütung pro Einblendung, Pay-Per-Sale, Umsatzbeteiligung an den generierten Verkäufen über die Werbemittel, Pay-Per-Lead, Provision für die Kontaktdaten der Kunden und dem Pay-Per-Click, bei dem der Klick auf das Werbemittel provisioniert wird.

Das Modell Pay-Per-Sale wird sehr oft angewandt und ist für kleine Unternehmen wegen des planbaren Betrages interessant. Außerdem lassen sich die einzelnen Modelle kombinieren.

Für lokal ansässige Unternehmen ist die bundesweite Werbung über Affiliates aber nicht rentabel. Hier bietet das Geotargeting eine innovative und vertriebsorientierte Lösung.

Da die Nutzung mobiler Endgeräte immer weiter zunimmt, können die Kunden über diese geortet werden, z.B. über GPS oder Netzwerkdaten. Durch die Lokalisierung kann nun ortsbezogene Werbung eingeblendet werden, z.B. bei der Suche nach Restaurants, Hotels oder anderen Dienstleistungen in der Umgebung.

Auch Partnernetzwerke wie Google oder Zanox, die Affiliates vermitteln, bieten eine Funktion der Ortsbeschränkung an und ermöglichen regionales und lokales Werben.

Dies ist ein signifikanter Vorteil für lokale Unternehmen, da sie nicht unnötig überregionalen Anzeigen einkaufen müssen. Desweiteren wird die Zielgruppe genauer angesprochen, wodurch Streuverluste reduziert werden. Auch muss nur bei messbarem Erfolg oder tatsächlichem Umsatz eine Provision an die Affiliates gezahlt werden. Ein Risiko ist es, das viele Kunden die Dienste zur Lokalisierung zwecks Datenschutzes ausgeschaltet haben und somit aus der Zielgruppe fallen.

Zusammenfassend lässt sich sagen, dass lokales Affiliate Marketing eine innovative Marketingstrategie für kostengünstige und treffsichere Neukundenakquise ist, da Streuverluste durch die Lokalisierung reduziert werden. Für lokale Unternehmen sinken die Werbekosten und die Messbarkeit des Erfolgs der Werbung wird gesteigert. Durch die steigende Nutzung von mobilen Endgeräten, wird diese Strategie immer mehr an Bedeutung gewinnen.

 


Standort: Essen

Dozent: Dr. Malcolm Schauf

Modul: Beschaffung, Fertigung & Marketing

Note: 2.0

Scientific Abstract – The Transaction Cost Theory

Einleitung

The Transaction Cost Theory, dt. Transaktionskostentheorie, ist eine Organisationstheorie der neuen Institutionenökonomik, bei der der Vertrag als Organisationsform im Mittelpunkt der Forschung steht. Sie untersucht warum bestimmte Transaktionen, in bestimmen institutionellen Arrangements, effizienter als andere abgewickelt und organisiert werden. Dabei geht sie von der Annahme aus, dass jedes Handeln in einer Marktwirtschaft mit Kosten verbunden ist.

Historie

Die Transaktionskostentheorie basiert auf den Arbeiten von John R. Commons aus dem Jahr 1931, der als erster anführte das die Ökonomie auf Transaktionen basiert, und Ronald Coase aus dem Jahr 1937, die sich mit der Frage beschäftigte „Warum es überhaupt Unternehmen gibt“ .

Kenneth Arrow prägte im Jahre 1969, durch seine theoretischen Arbeiten, den Begriff der Transaktionskosten.

Eine zusammenfassende und detaillierte Beschreibung der Transaktionskostentheorie wurde von Oliver Williamson, durch eine Abhandlung aus dem Jahre 1985, gegeben.

Definition

Eine Transaktion ist eine Übertragung von Verfügungsrechten an Sachgütern und Dienstleistungen, also eine explizite oder implizite Vertragsverhandlung über Güter und Leistungen. Sie bilden die Grundeinheiten der Analyse in der Transaktionskostentheorie und finden in der Regel vor dem materillen Güteraustausch statt. Nach Kenneth Arrow sind Transaktionskosten, Kosten die nicht an Vor- oder Zwischenprodukten sowie der Faktorleistung beteiligt sind.

Laut Williamson sind Transaktionen dann effizient, wenn die Summe aus Produktions- und Transaktionskosten am geringsten sind.

Es wird bei den Kosten zwischen „Ex ante“ und „Ex post“ Kosten unterschieden.

„Ex ante“-Transaktionskosten entstehen vor der eigentlichen Transaktion z.B. im Zusammenhang mit den Verhandlungen, der Informationsbeschaffung und der Vertragsausarbeitung.

„Ex post“-Transaktionskosten entstehen er nach der Transaktion z.B. durch die Überwachung oder nachträgliche Anpassungen, dabei sind diese Kosten meistens höher und deshalb bedeutsamer.

Desweiteren besteht die Einteilung der Kosten nach Art der Leistung. Hierbei wird zwischen feste Kosten, die bei der Errichtung des institutionellen Arrangements entstehen, und variablen Kosten, die abhängig von Anzahl und Volumen der Transaktionen sind, unterschieden.

Verhaltensannahmen

Bei der Transaktionskostentheorie wird den Vertragspartnern ein bestimmtes Verhalten unterstellt.

Aufgrund kognitiver Aufnahme und Verarbeitungsgrenzen können Akteure nur unvollkommen ökonomisch rational Handeln und haben somit eine beschränkte Rationalität.  Auch wird davon ausgegangen das die Akteure ihre eigenen Interessen zur eigenen Gewinnmaximierung durchsetzen möchten und dadurch opportunistisch Handeln. Desweiteren wird eine Risikoneutralität beider Akteure angenommen, d.h. das beide Akteure das gleiche Risiko bei einer Transaktion haben.

Einflüsse auf Kosten

Die Höhe Transaktionskosten werden von verschiedenen Faktoren beeinflusst.

Zum einen wird sie von der Faktorspezifität beeinflusst, die aussagt, dass spezialisiertes Kapital mehr erwirtschaftet. Hier wird zwischen der räumlichen, die Wahl eines günstigen Standortes, und der physischen Spezifität, spezielle Investitionen in Maschinen und Wissen nur für eine Transaktion, unterschieden. Durch eine höhere Faktorspezifität sinken die Produktionskosten, aber die Abhängigkeit ggü. des Transaktionspartners steigt. Bei einem Wechsel des Partners würden die Kostenvorteile vernichtet, weswegen die Risiken abgesichert werden müssen. Notwendige vertragliche Vereinbarungen lassen die Transaktionskosten steigen.

Durch begrenzten und unterschiedlichen  Wissenstand der Transaktionspartner entsteht Unsicherheit, die die Transaktionskosten, aber nicht die Produktionskosten, steigen lässt. Hierbei wird die Ungewissheit über zukünftige Umweltzustände parametrische Unsicherheit genannt. Die Ungewissheit ggü. möglichen opportunistischen Verhaltens des Partner wird als Verhaltensunsicherheit bezeichnet.

Die Häufigkeit der Transaktionen beeinflusst auch die Kosten, da mit zunehmend identischen Transaktionen die Produktions- und Transaktionskosten sinken.

Unter Atmosphäre werden politische, soziale und rechtliche Einflüsse auf die Kosten verstanden.

Williamson definiert deshalb als Ziel der Gestaltung von Transaktionen, Unsicherheitsprobleme zu minimieren und Schutzvorkehrungen gegen opportunistisches Verhalten zu treffen.

Anwendungsbereiche

Anwendungsbereiche für die Transaktionskostentheorie sind z.B. Make-or-Buy-Entscheidungen, Internationalisierungsstrategien multinationaler Unternehmen und die Gestaltung von Beschäftigungsverhältnissen.

Institutionelle Arrangements

Das Ergebnis der Transaktionskostentheorie ist, dass es für unterschiedliche Situationen bzw. Investitionen, unterschiedliche Organisationsformen genutzt werden müssen. Wenn es keine spezifischen Investitionen gibt und die vereinbarten Leistungen leicht mess- und kontrollierbar sind, wir die Organisationsform des Marktes gewählt (z.B. Kaufvertrag). Die Form der Hierarchie wird bei spezifischen Investitionen und Leistungen die schwer mess- und kontrollierbar sind gewählt, da es hier einen hohen Anreiz und viele  Möglichkeiten für opportunistisches Verhalten gibt. In der Realität gibt es die reine Ausprägung der beiden Formen eher selten, meist wird ein Hybrid aus beiden gewählt (z.B. Verträge mit Garantieklauseln). Mit zunehmender Spezifität und Verhaltensunsicherheit werden hierarchische Formen effizienter ggü. Marktformen.

Kritische Würdigung

Die Transaktionskostentheorie hilft zu erklären, warum es überhaupt Organisationen gibt, und verdeutlicht, weshalb es in manchen Situationen besser ist, bestimmte Arten von Transaktionen in bestimmten institutionellen Arrangements abzuwickeln und zu organisieren. Durch die gemeinsame Betrachtung der Produktions- und Transaktionskosten wird immer die effizienteste institutionelle Lösung zum Durchführen einer Transaktion ausgewählt, somit sind die Vorteile einer Lösung und nicht die Höhe der gesamten Transaktionskosten ausschlaggebend.

Negativ zu sehen ist, dass äußere relevante Einflussfaktoren, wie z.B. die Machtverteilung der beiden Transaktionspartner, außer Acht gelassen werden. Ebenso stellt sie keinen Zusammenhang zwischen Transaktionen her. Die Beschreibung der institutionellen Arrangements stellt sich als sehr einfaches Konzept dar und kann nur wenige Alternativen voneinander abgrenzen. Desweiteren ist die Opportunismusannahme fraglich, da Transaktionen und die Transaktionspartner in sozialen Beziehungen eingebettet sind und solche Beziehungsdimensionen in der Theorie vernachlässigt werden. Hier muss auch die Risikoneutralität relativiert werden, da die Annahme das bei Vertragspartner das gleiche Risiko tragen realitätsfern ist. Auch wird das Handeln der Wirtschaftssubjekte auf die Minimierung der Transaktionskosten reduziert.

 


 

Literatur

  • Die Transaktionskostentheorie im Überblick,  von Ingo Schwartzer
  • Die Transaktionskostentheorie der neuen Institutionenökonomik, von Peter Eimers,Robert Stamm

Weblinks

euro

Scientific Abstract – Non Performing Loans

Einleitung

Non Performing Loans (NPL) sind zu Deutsch „Problemkredite“, „notleidende Kredite“ oder auch „toxische Kredite“, dabei lässt sich das „Non Performing“ als „Nichtleistung“ übersetzen. Eine einheitliche Definition für NPL existiert nicht. Allgemein wird damit ein Kredit gemeint, der Zahlungsprobleme bei der Bedienung durch Zahlungsunwilligkeit oder -unfähigkeit hat. Nach dem internationalen Währungsfond, sind dies Kredite bei denen die Zahlungen mehr als 90 Tage im Verzug sind oder es massive Befürchtungen für eine Nichtzahlung gibt. Dabei handelt es sich meistens um Immobilienkredite.

Historie

Ursprung des NPL-Marktes ist die „Savings & Loans“-Krise in den USA in den 1980ern, bei der mehr als 1600 Sparkassen und Banken zusammen brachen. Vorrausgegangen war eine Deregulierung der Sparkassen durch die US-Regierung. In den 1990er Jahren etablierten sich auch NPL-Märkte in Asien, vor allem Japan, und Großbritannien. In Deutschland gab es die ersten nennenswerten Transaktionen erst im Jahre 2003 durch die Hypo Real Estate.

Handlungsoptionen

Beim Verkauf der NPL richten sich die Preise nach Ausfallwahrscheinlichkeit und Verwertbarkeit. Als Käufer treten meisten spezialisierte Investmentgesellschaften aus den USA auf, wie z.B. Lone Star, die diese zur Verwertung an Servicegesellschaften weiter geben.

Beim „True Sale“ oder der Forderungsabtretung erwirbt der Käufer alle Rechte und Risiken des Kredites.

Der Debt-to-equity-swap ist die Möglichkeit für den Gläubiger das Fremdkapital in Eigenkapital umzumünzen. Dabei bringt der Gläubiger den Kredit als Sacheinlage ein und wir somit zum Miteigentümer. Diese Variante wird allerdings nur bei sanierungsfähigen Schuldnern durchgeführt.

Eine weitere Möglichkeit ist das Auslagern (Outsourcing) von NPL an Servicer oder Zweckgesellschaften, damit sich der Eigentümer auf sein Kerngeschäft konzentrieren kann und personelle sowie finanzielle Ressourcen frei werden.

Seltenere Optionen sind ein Joint-Venture oder die Vertragsübernahme.

Marktteilnehmer – Motivation, Möglichkeiten und Risiken

Motivatoren für Verkäufer sind neue gesetzliche Regelungen, wie die Mindestanforderungen an Kreditgeschäfte (MaK), durch die erhöhte Kosten, durch höhere Anforderungen ans Management, entstehen. Oder die erhöhte Eigenkapital und Unterlegungspflicht durch Basel II. Sowie die strengere Risikobewertung bei Krediten, wo durch die Neuvergaberate sinkt. Desweiteren der Wegfall der Gewährträgerhaftung seitens des Staates, welcher zur Folge hat, dass das Rating der Eigentümer sinkt. Desweiteren müssen die Portfolios auch von externen Unternehmen geratet werden.

Durch den Verkauf erfolgt eine Freisetzung von finanziellen und personellen Ressourcen, eine Bilanzbereinigung und Steigerung der Transparenz und die Restrukturierung des Portfolios. Durch den unmittelbaren Liquiditätszufluss, kann das freigewordene Eigenkapital gewinnbringend woanders investiert werden. Eine Konzentration auf Kerngeschäft und ein Planungssicherheit sind die Folge. Durch den Abbau von Kreditrisiken erhält die Bank ein besseres Rating.

Risiken für den Verkäufer sind ein Wertberichtigungsbedarf wegen eines Kaufpreisabschlags, ein möglicher Imageverlust, ein höherer Bearbeitungsaufwand während der Transaktion sowie die noch geringen Erfahrungen mit NPL-Transaktionen.

Für Käufer ist der größte Motivator die Erzielung von Renditen aber auch die Restrukturierung der eigenen Geschäfte, Securisation und Weiterverkauf der Kredite sowie der Quereinstieg in interessante Immobilieninvestitionen. Ein Risiko besteht beim möglichen Zahlungsausfall der Kredite.

Für Kreditnehmer besteht die Möglichkeit einer Umschuldung sowie einen Gewinn durch Veräußerungen. Durch Zinsanhebungen oder Rückforderungen besteht das Risiko von Liquiditätsengpässen oder Zwangsversteigerungen.

Fazit

Der NPL-Markt in Deutschland ist noch recht jung und wird noch wachsen. Das NPL-Modell ist ein komplexes aber interessantes Instrument zum Risikotransfer mit vielen Möglichkeiten für den Verkäufer sein Geschäft zu Restrukturieren.

 


Standort: Essen  – WS 2014/2015

Dozent: Lombeck

Note: 1,0


 

Quellen

  • Non-Performing Loans in Deutschland: Möglichkeiten und Grenzen des Outsourcing,  von Ulrich Bitterling
  • Belegarbeit – Non Perfoming Loans, von Christoph Geirhos, Jeannette Joram, Maria Scheibe, Franziska Schenk, Kathrin Zechel
inflation vs. deflation

Scientific Abstract – Inflation vs. Deflation

Einleitung

Inflation und Deflation sind Begriffe der Volkswirtschaftlehre. Bei der Inflation handelt es sich um eine anhaltende und dauerhafte Geldentwertung, diese entsteht wenn die Geldmenge höher ist als die Gütermenge einer Marktwirtschaft, wodurch das Preisniveau steigt. Dagegen handelt es sich bei der Deflation um eine Geldaufwertung, die durch ein höheres Angebot an Güter entsteht als nachgefragt wird, wodurch das Preisniveau sinkt. Deflationäre Tendenzen treten dabei viel seltener auf als inflationäre.

Arten der Inflation

Die Inflation lässt sich nach Geschwindigkeit, Erkennbarkeit und Auslöser unterteilen.

Geschwindigkeit

Die schleichende (5-10% Inflationsrate über längere Zeit), die trabende (10-20%) , die galoppierende (20-50%) und die Hyperinflation (über 50%). Eine Hyperinflation trat z.B. in Deutschland nach dem ersten Weltkrieg auf. Nach einer anhaltenden galoppierenden oder Hyperinflation erfolgt meist ein Währungswechsel, da das Geld stark entwertet wird.

Erkennbarkeit

Bei der offenen Inflation, ist die Inflation für jeden erkennbar. Dies ist bei der versteckten nicht der Fall, da der Preis durch staatliche Eingriffe stabil gehalten wird.

Auslöser

Es gibt die angebotsbedingte Inflation, bei der das Preisniveau durch gestiegene Kosten der Unternehmen, höhere Unternehmensgewinne, höhere Steuern oder Importkosten steigt sowie die nachfragebedingte Inflation, bei der die Preissteigerung durch die erhöhte Nachfrage nach Gütern und Leistungen ausgeht.

Gewinner und Verlierer

Gewinner einer Inflation sind Personen oder Unternehmen die in Sachwerte investiert haben sowie Schuldner. Verlierer sind dagegen Bezieher von festem Einkommen, da der Reallohn sinkt. Bei der Deflation ist dies genau umgekehrt, da das Geld aufgewertet wird.

Deflation

Deflation kann als Folge übermäßiger Verringerung der Geldmenge durch einschränkende, geldpolitische Maßnahmen der Zentralbank entstehen, durch hohe Einfuhrüberschüsse, da dadurch das Geld ins Ausland fließt, sowie durch die Überproduktion von Gütern. Die Folge ist eine stetige Preissenkung, wodurch die Gewinnerwartungen der Unternehmen sinken. Das ist der Grund für eine geringere Investitionsbereitschaft der Unternehmen, was eine Senkung der Güterproduktion als Folge hat (z.B. durch betriebliche Einschränkungen wie Kurzarbeit oder Werksschließungen). Daraufhin steigt die Arbeitslosigkeit. Durch die Einkommensverluste sinkt die Nachfrage nach Gütern und der Staat verliert Steuereinnahmen. Es entsteht ein Kreislauf, bei dem die ganze Wirtschaftsleistung zunehmend sinkt.

Eine Deflation tritt meistens in Zusammenhang einer wirtschaftlichen Depression auf und verlangt grundsätzlich politische und wirtschaftliche Maßnahmen.

Messung

Zur Messung der Inflation- bzw. Deflationsrate wird der Verbraucherpreisindex (VPI) errechnet. Dieser basiert auf einen repräsentativen Warenkorb durchschnittlicher Haushalte.

Das Preisniveau lässt sich mit folgender Formel berechnen: Preisniveau = Geldmenge * Umlaufvermögen / Handelsvolumen

Kontrolle

Die Europäische Zentralbank ist für die Preisstabilität des Preisniveaus in der EU zuständig und versucht ein Gleichgewicht zwischen Deflation und Inflation herzustellen. Sie greift regulierend ein, indem sie die verfügbare Geldmenge erhöht bzw. verringert oder die Zinssätze anpasst. Eine Preiswertstabilität liegt bei einer Inflationsrate von -2% bis +2%.

Fazit

Zusammenfassend lässt sich sagen, dass sowohl eine hohe Inflation als auch eine Deflation schädlich für eine Volkswirtschaft. Dabei ist eine Deflation gefährlicher einzuschätzen, da kaum Erfahrungen gemacht wurden und sie in einer Abwärtsspirale agiert. Außerdem Bedarf ist finanzpolitischer Gegenmaßnahmen, um der Deflation entgegenzuwirken.

Quellen

  • Arten, Ursachen und Auswirkungen der Inflation,  von Markus Schröter
  • Ursachen und Auswirkungen der Deflation,  von Assi Rutzki
Six Sigma

Scientific Abstract – Six Sigma

Einleitung

Six Sigma ist eine Methode des Qualitätsmanagements, die unter Anwendung von analytischen und statistischen Methoden sowie systematischen Vorgehens zur Prozessverbesserung in Unternehmen genutzt wird.

Ziel der Methode ist es Kundenanforderungen vollständig und wirtschaftlich zu erfüllen und dabei die Fehlerrate und Kosten in einem Unternehmen zu senken.

Dabei verfolgt sie einen mathematischen Ansatz, mit der Annahme, dass jeder Geschäftsprozess als mathematische Funktion darstellbar ist.

Herkunft

Vorläufer der Six-Sigma-Methode gab es bereits in Japan der 1970er, in den Bereichen Schiffbau und in der Konsumgüter- und Elektroindustrie. Die eigentliche Methode und der Begriff „Six Sigma“ wurde von Bill Smith eingeführt, der sie 1987 bei Motorola entwickelte. Nach den Erfolgen bei Motorola durch Six Sigma, wurde sie bei General Electric (GE) 1996 durch Jack Welsh eingeführt, wodurch sie weltweit an Popularität gewann.

Zuerst wurde die Methode nur in der Produktion und Fertigung eingesetzt, später aber auch im Dienstleistungsbereich.

Begriff „Six Sigma“

Mathematisch ist der griechische Buchstabe Sigma das Symbol für die Standardabweichung einer Grundmenge und ein statistisches Qualitätsziel und somit ein Indikator für die Abweichung von einem Mittelwert. Mit einem Sigma von sechs „6σ“ würden 3,4 Fehler auf 1.000.000 Möglichkeiten entstehen (99,99966% fehlerfrei). Die Ausbeute an fehlerfreien Teilen wird dabei „Yield“  genannt.

Sigma Anzahl Fehler pro 1 Mio. Möglichkeiten Yield
690.000 31%
308.537 69.2%
66.807 93.32%
6.210 99.379%
230 99.977%
3.4 99.99966%

Zu beachten ist, das nicht für jedes Unternehmen bzw. jeden Prozess eine Fehlerfreiheit von 6σ wirtschaftlich ist, er kann also unter 6 liegen und wird meist bei traditionell produzierenden Unternehmen bei 3,8 angesetzt (Yield = 99%). Abgesehen davon gibt es aber auch Bereiche in denen das Sigmaniveau über 6 liegen muss, wie z.B. beim Luftverkehr oder Kernkraftwerken, hier wäre es fatal wenn 3,4 Fehler auf 1 Mio. Abläufe geschehen würden. Grundsätzlich muss das Qualitätsniveau so hoch sein, wie der Kunde es akzeptiert.

Ziele

Die Ziele von Six Sigma sind vor allem die Reduktion der Fehlerquote in einem Unternehmen und damit auch den Aufwand für Nacharbeit. Außerdem soll die Qualität, Prozessfähigkeit und das Unternehmensergebnis verbessert, die Vorhersagbarkeit von Prozessergebnissen und die Kundenzufriedenheit gesteigert, sowie die Zuverlässigkeit von Lieferungen und Waren erhöht werden. Desweiteren sollen die am Prozess beteiligten Mitarbeiter motiviert werden.

DMAIC-Methodik

Bei der Six-Sigma-Methode wird am häufigsten der DMAIC-Zyklus zum messen und verbessern der Prozesse eingesetzt.

DMAIC steht dabei für Define, Measure, Analyse, Improve, Control.

Define

In der Define-Phase wird der zu verbessernde Prozess identifiziert, dokumentiert und das Problem beschrieben.
Werkzeuge für diese Phase sind z.B. Projektcharta, SIPOc oder CTQ-Baum.

Measure

In dieser Phase wird festgestellt, wie gut der Prozess die Kundenanforderungen erfüllt.
Werkzeuge hierfür sind z.B. Prozessvirtualisierung oder statistische Datenerhebung.

Analyse

Beim Analysieren wird versucht die Ursachen herauszufinden, warum der Prozess die Kundenanforderungen noch nicht im gewünschten Umfang erfüllt. Hierzu werden Prozess- und Datenanalysen durchgeführt.
Dies wird z.B. mit einer C&E-Matrix oder einem Durchlaufzeitdiagramm durchgeführt.

Improve bzw. Engineer

Bei der Improve-Phase wird die Verbesserung des Prozesses geplant, getestet und eingeführt. Eingesetzte Werkzeuge sind z.B. Kosten-Nutzen-Analyse oder K.O.-Analyse.

Control

Während der Controll-Phase werden die neuen bzw. erneuerten Prozesse mit Hilfe von statistischen Methoden, z.b. mit SPC-Regelkarten oder Prozessdokumentationen, überwacht.

Rollen und Aufgaben

Six-Sigma-Projekte werden von speziell ausgebildeten Mitarbeitern ausgeführt. Diese sind in Hierarchieebenen unterteilt, deren Benennung sind an die Gürtelfarben japanischer Kampfsportarten anlehnt. Neben den nachfolgend genannten offiziellen, kann es auch inoffizielle Ebenen  geben (z.B. Yellow Belt oder White Belt).

Sponsor / Champion

Der Champion identifiziert Projekte und stellt Ressourcen zur Verfügung. Außerdem achtet er darauf, dass die Projektdefinitionen konform mit den Unternehmenszielen sind. Er dient als Fürsprecher und Wissensquelle für diese Projekte.

Master Black Belt

Der Master Black Belt ist ein hoch qualifizierter Experte, der zu 100% seiner Arbeitszeit für Six Sigma verwendet. Er wählt die unter geordneten Black Belts aus, trainiert und coacht sie. Für zwanzig Black Belts sollte ein Master Black Belt zur Verfügung stehen.

Black Belt

Der Black Belt, ist wie der MBB, auch ein Vollzeitverbesserungsexperte. Er coacht die unter ihm stehenden Green Belts und übernimmt Projektmanagementaufgaben. Für 100 Mitarbeiter (Green Belts) sollte ein Black Belt verantwortlich sein,

Green Belt

Der Green Belt ist ein Mitarbeiter aus dem unteren Management oder ein Spezialist (z.B. Ingenieur). Er verwendet nur ein Viertel seiner Arbeitszeit für Six-Sigma-Aufgaben. Seine Aufgabe ist das Leiten von Teilprojekten oder Prozessoptimierungsprojekten in seinem Arbeitsumfeld.

Kritische Würdigung

Vorteile entstehen durch den geschlossenen Regelkreis der Six-Sigma-Methode, er generiert nachhaltigen Erfolg, durch laufende Innovation und Veränderung. Für jeden Mitarbeiter, jede Abteilung bzw. Geschäftsbereich werden Leistungsziele gesetzt, wodurch jeder seine eigene Leistung gegenüber den Zielen bewerten kann. Fehlerfreiere Produkte bewirken eine Wertsteigerung für den Kunden. Durch das immerwährende Lernen wird die Entwicklung und Verbreitung neuer Ideen gefördert. Es entstehen direkte und indirekte Kostenvorteile durch nicht entstandene Fehler, den dadurch geringeren Ausschuss, geringere Kulanzen, Lagerhaltung Verwaltung und optimierten Arbeitsprozessen sowie ein besseres Image bei den Kunden

Negativ zu betrachten sind die enormen Einführungs- und laufenden Kosten, die durch die Rekrutierung und Ausbildung der Mitarbeiter sowie die Vollzeitbeschäftigten, die sich nur mit Six Sigma beschäftigen, entstehen. Dies fällt umso so schwerer ins Gewicht, je höher das Sigma-Niveau sein soll. Außerdem müssen die Mitarbeiter die neuen Prozesse akzeptieren, das neues und komplexes Wissen notwendig macht. Es bedarf gute Organisation und Durchhaltvermögen seitens der Unternehmensleitung, da sich die Philosophie der Methodik erst langsam von den Mitarbeitern übernommen wird. Ein weiteres Problem sind konservative Strukturen im Unternehmen oder kulturelle Vorrausetzungen die eine Einführung erschweren oder gar unmöglich machen.

Zum Schluss lässt sich sagen, dass Six Sigma eine gute Methode zur Qualitätsverbesserung mit bekannten Werkzeugen ist, sie aber bei der Einführung und Umsetzung richtig und konsequent angegangen werden sollte.

 

Quellen:

  • Six Sigma, Methoden und Statistik für die Praxis, von Helge Toutenburg,Philipp Knöfel
  • Einführung in das Management von Geschäftsprozessen, Six Sigma, Kaizen und TQM, von Susanne Koch

 

Balanced Scorecard

Scientific Abstract – Balanced Scorecard

Einleitung

Die Balanced Scorecard, englisch für ausgewogener Berichtsbogen, ist ein Kennzahlensystem und Managementinstrument und dienst als Verbindungsglied zwischen Strategiefindung und -umsetzung sowie als Instrument zur Messung, Dokumentation und Steuerung der Aktivitäten eines Unternehmen im Zusammenhang mit ihrer Vision und Strategie.

Die Balanced Scorecard wurde 1992 von Robert S. Kaplan und David P. Norton entwickelt und basiert auf einer Studie Anfang der 1990er, mit 12 US-Unternehmen, zum Thema „Perfomance Management in Unternehmen der Zukunft“.
Ziel dieser Studie war es, ein aussagekräftiges und umfassendes Kennzahlensystem zu schaffen, da die herkömmlichen Kennzahlensysteme wegen ihres finanziellen Fokus zu sehr vergangenheitsbezogen sind und einen operativen Charakter aufweisen. Dabei werden wichtige nicht-finanziellen Sachverhalte außer Acht gelassen.
Das neue Kennzahlensystem sollte eine Unternehmenssteuerung mit ausgewogener Mischung aus Ergebnis- und Treibergrößen, monetären und nicht-monetären , internen und externen sowie harten und weichen Maßgrößen ermöglichen.

 

Hauptteil

In der Balanced Scorecard wird das Unternehmen aus vier grundlegenden Perspektiven betrachtet, die aber jederzeit um individuelle Perspektiven erweitert werden können.

1. Finanzen

Bei der Finanzperspektive werden Fragen wie „Wie tritt das Unternehmen gegenüber den Teilhabern und Kapitalgebern auf?“ oder „Wie kann das Unternehmensergebnis gesteigert werden“ behandelt.

Sie enthält Informationen über die Vermögens-, Ertrags- und  Finanzlage des Unternehmens und wird traditionell in Jahres- und Quartalsabschlüssen dargestellt.

Außerdem dient sie den anderen Perspektiven zur Orientierung und bildet Endziele für die Kennzahlen ab.

Übliche Kennzahlen sind: Umsatz, Stückkosten, Rentabilität und Cashflow.

2. Kunden

Bei der Kundenperspektive wird das Verhältnis zwischen Kunden und Unternehmen sowie die Positionierung des Unternehmens in den einzelnen Marksegmenten dargestellt.

Typische Fragen lauten „Was will man dem Kunden bieten?“ und „Wie tritt man dem Kunden gegenüber auf?“.

Ziele für diese Perspektive könnten z.B. sein die Marktanteile zu steigern oder die Qualität der Produkte zu verbessern.

Übliche Kennzahlen sind: Termintreue, Kundenzufriedenheit, Bekanntheitsgrad.

3. interne Geschäftsprozesse

Bei der Perspektive der internen Geschäftsprozesse wird untersucht, welche Ziele und Gestaltung für die Prozesse in einem Unternehmen notwendig sind, um die Ziele der Finanz- und Kundenperspektive zu erfüllen.

Ein typische Ziel ist z.B. die Steigerung der Wertschöpfung.

Übliche Kennzahlen sind: Durchlaufzeiten und Standzeiten.

4. Lernen und Entwicklung

Das Ziel der Lern- und Entwicklungsperspektive ist es,  herauszufinden wie die Wettbewerbsfähigkeit, der Erfolg und das Fortbestehen des Unternehmens langfristig gesichert werden kann.

Typische Maßnahmen wären z.B. die Altersstruktur des Unternehmens zu verjüngen, das Wissen der einzelnen Mitarbeitern allen verfügbar zu machen oder die Mitarbeiter fortzubilden.

Übliche Kennzahlen sind: Fortbildungskosten und Mitarbeiterzufriedenheit.

 

Ablauf nach Kaplan und Norton

Zuerst wird die formulierte Strategie in einer „strategy map“ festgehalten. Die Ziele werden in ein Raster aus strategischen Themen und Perspektiven gestellt. Danach werden die Ziele durch „Ursache-Wirkungs-Ketten“ miteinander verbunden. Als zweites werden die Ziele aus der „strategy map“ in eine „Balanced Scorecard Matrix“ übertragen. Für jedes Ziel werden eine Kennzahl, Vorgaben zur Entwicklung dieser und Maßnahmen festgelegt. Zum Schluss erfolgt die Ableitung von Projekten und Aktionsprogrammen. Die zu erreichenden Ziele und Zusammenhänge der Perspektiven werden ausformuliert in einer Balanced Scorecard Story niedergeschrieben.

Die Kennzahlen der einzelnen Perspektiven sollten grundsätzlich über Ursache-Wirkungs-Beziehungen mit den finanziellen Zielen verbunden sein.

Ein Beispiel dafür wäre:

Gut geschulte Mitarbeiter bedienen die Kunden schneller und effektiver (Lernen und Entwicklung)

Durch die schnellere Bedienung werden die Wartezeiten geringer (interner Prozess)

Die Kunden empfehlen das Unternehmen da sie zufriedener sind, weil sie nicht so lange warten müssen, bis sie bedient werden (Kunden)

Durch die neuen Kunden steigt der Umsatz (Finanzen)

 

Kritische Würdigung

Durch die Balanced Scorecard können Strategien besser dargestellt, operationalisiert und kommuniziert werden. Zusätzlich werden Wirkungszusammenhänge innerhalb des Unternehmen verdeutlicht. Die Motivation der Mitarbeiter wird durch die Transparenz der strategischen Ziele gesteigert.

Ein großes Risiko entsteht durch das Festlegen falscher oder unrealistischer Ziele durch das Unternehmen. Desweiteren kann es durch die große Auswahl an Kennzahlen, zu einer nur oberflächlichen Betrachtung kommen und daraus eine Fehlsteuerung entstehen. Dies ist durch das vorherige Einplanen von Risiken und durch professionelle Beratung aber verhinderbar. Sollte es zu Planabweichungen kommen, können diese nicht immer auf den Verantwortlichen zurück geführt werden, da es auch exogene Störungen geben kann (z.B. Konjunkturschwankungen).

 

 

Quellen: