Der Stackelberg-Wettbewerb ist ein Modell der oligopolistischen Marktstruktur, in dem Unternehmen strategisch Entscheidungen über Preis und Menge treffen. In diesem Modell hat der Leader, das Unternehmen, das zuerst seine Produktionsmenge festlegt, einen entscheidenden Vorteil gegenüber dem Follower, also dem Unternehmen, das seine Entscheidungen danach trifft. Dieser Vorteil entsteht, weil der Leader seine Produktionsmenge so wählen kann, dass er die Reaktionen des Followers antizipiert und somit seine eigene Marktposition optimiert.
Der Leader maximiert seinen Gewinn unter Berücksichtigung der Reaktionsfunktion des Followers, was bedeutet, dass er nicht nur seine eigenen Kosten und Preise, sondern auch die potenziellen Reaktionen des Followers in seine Entscheidungen einbezieht. Mathematisch kann dies durch die Maximierung der Gewinnfunktion des Leaders unter der Berücksichtigung der Reaktionsfunktion des Followers dargestellt werden. Dies führt oft zu einem höheren Marktanteil und höheren Profiten für den Leader im Vergleich zum Follower.
Der Pigou Effect beschreibt den Zusammenhang zwischen dem realen Geldangebot und dem Konsumverhalten der Haushalte in einer Volkswirtschaft. Wenn die Preise sinken, erhöht sich der reale Wert des Geldes, das die Haushalte besitzen; das heißt, ihre Kaufkraft steigt. Dies führt dazu, dass die Konsumenten mehr konsumieren, weil sie sich wohlhabender fühlen. Ein Rückgang des Preisniveaus kann also eine Erhöhung der gesamtwirtschaftlichen Nachfrage bewirken, was in der Regel zu einem Anstieg des Bruttoinlandsprodukts (BIP) führt. Der Pigou Effect ist besonders relevant in Zeiten der Deflation oder wirtschaftlichen Rezession, wo eine Verbesserung der realen Wohlstandsverhältnisse durch sinkende Preise die wirtschaftliche Aktivität ankurbeln kann.
Die Kolmogorov Axiome bilden die Grundlage der modernen Wahrscheinlichkeitstheorie und wurden von dem russischen Mathematiker Andrey Kolmogorov in den 1930er Jahren formuliert. Diese Axiome definieren eine Wahrscheinlichkeit als eine Funktion , die auf einer Menge von Ereignissen basiert und die folgenden drei grundlegenden Eigenschaften erfüllt:
Diese Axiome sind entscheidend, um mathematisch konsistente und nützliche Modelle für die Analyse von Zufallsphänomenen zu entwickeln.
Heap Sort ist ein effizienter Sortieralgorithmus, der auf der Datenstruktur des Heaps basiert. Die Zeitkomplexität für den Heap Sort kann in zwei Hauptphasen unterteilt werden: das Erstellen des Heaps und das Sortieren.
Heap erstellen: Um aus einer unsortierten Liste einen Max-Heap zu erstellen, benötigt man im schlimmsten Fall Zeit, wobei die Anzahl der Elemente in der Liste ist. Dies geschieht durch das Wiederherstellen der Heap-Eigenschaft für jedes Element, beginnend von den Blättern bis zur Wurzel.
Sortieren: Nachdem der Heap erstellt wurde, erfolgt das Sortieren durch wiederholtes Entfernen des maximalen Elements (die Wurzel des Heaps) und das Wiederherstellen des Heaps. Diese Operation hat eine Zeitkomplexität von , und da wir dies für jedes Element wiederholen, ergibt sich eine Gesamtzeit von .
Somit ist die endgültige Zeitkomplexität von Heap Sort sowohl im besten als auch im schlimmsten Fall , was ihn zu einem der bevorzugten Sortieralgorithmen für große Datenmengen macht.
Der Dirichlet Kernel ist ein grundlegendes Konzept in der Fourier-Analyse und spielt eine wichtige Rolle bei der Untersuchung der Konvergenz von Fourier-Reihen. Er wird definiert als:
Hierbei ist die Anzahl der verwendeten Harmonischen und der Punkt, an dem die Fourier-Reihe evaluiert wird. Der Dirichlet Kernel hat die Eigenschaft, dass er die Koeffizienten der Fourier-Reihe gewichtet, was bedeutet, dass er die Summe der Harmonischen für eine Funktion beeinflusst. Besonders bemerkenswert ist, dass der Dirichlet Kernel die Schwingungen und Überschwinger beschreibt, die bei der Konvergenz von Fourier-Reihen auftreten können, insbesondere in Bezug auf die Gibbs-Phänomen. In der Praxis wird der Dirichlet Kernel häufig verwendet, um die Approximation von Funktionen durch ihre Fourier-Reihen zu analysieren und zu verstehen.
Der Mean Value Theorem (Mittelwertsatz) ist ein zentraler Satz der Analysis, der eine wichtige Verbindung zwischen der Ableitung einer Funktion und ihrem Verhalten auf einem Intervall herstellt. Der Satz besagt, dass, wenn eine Funktion auf einem geschlossenen Intervall stetig ist und dort differenzierbar ist (also die Ableitung existiert) im offenen Intervall , dann gibt es mindestens einen Punkt in , so dass gilt:
Dies bedeutet, dass es einen Punkt gibt, an dem die Steigung der Tangente (d.h. die Ableitung ) gleich der mittleren Steigung der Funktion über das Intervall ist. In einfacher Sprache bedeutet dies, dass die Funktion an diesem Punkt so verhält, als ob sie auf dem gesamten Intervall eine konstante Steigung hätte. Der Mittelwertsatz ist nützlich in verschiedenen Anwendungen, einschließlich der Analyse von Geschwindigkeiten, Optimierung und der Bestimmung von Werten innerhalb eines Intervalls.
Die Endogenous Money Theory (EMT) ist eine wirtschaftliche Theorie, die besagt, dass die Geldmenge in einer Volkswirtschaft nicht exogen (von außen) festgelegt wird, sondern vielmehr endogen (aus dem Inneren des Systems heraus) entsteht. Dies bedeutet, dass die Banken Kredite vergeben, basierend auf der Nachfrage nach Krediten von Unternehmen und Haushalten, was zur Schaffung von neuem Geld führt.
Im Gegensatz zur traditionellen Sichtweise, die annimmt, dass die Zentralbank die Geldmenge kontrolliert und die Banken lediglich als Vermittler fungieren, argumentiert die EMT, dass die Geldschöpfung durch die Kreditvergabe der Banken initiiert wird. In diesem Kontext wird Geld als liquide Mittel betrachtet, die durch wirtschaftliche Aktivitäten und nicht durch eine zentrale Steuerung entstehen. Ein zentrales Konzept der EMT ist, dass die Geldmenge flexibel auf die Bedürfnisse der Wirtschaft reagieren kann, was zu einer dynamischen Anpassung von Angebot und Nachfrage führt.