StudierendeLehrende

Wiener Process

Der Wiener-Prozess, auch als Brownian Motion bekannt, ist ein fundamentaler Prozess in der Stochastik und der Finanzmathematik, der die zufällige Bewegung von Partikeln in Flüssigkeiten beschreibt. Mathematisch wird er als eine Familie von Zufallsvariablen W(t)W(t)W(t) definiert, die die folgenden Eigenschaften aufweisen:

  1. W(0)=0W(0) = 0W(0)=0 fast sicher.
  2. Die Increments W(t)−W(s)W(t) - W(s)W(t)−W(s) für 0≤s<t0 \leq s < t0≤s<t sind unabhängig und normalverteilt mit einem Mittelwert von 0 und einer Varianz von t−st - st−s.
  3. Der Prozess hat kontinuierliche Pfade, d.h. die Funktion W(t)W(t)W(t) ist mit hoher Wahrscheinlichkeit stetig in der Zeit.

Der Wiener-Prozess wird häufig zur Modellierung von finanziellen Zeitreihen und Diffusionsprozessen in der Physik verwendet, da er eine ideale Grundlage für viele komplexe Modelle bietet, wie zum Beispiel das Black-Scholes-Modell zur Bewertung von Optionen.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Hessische Matrix

Die Hessische Matrix ist eine quadratische Matrix, die die zweiten Ableitungen einer multivariablen Funktion enthält. Sie ist besonders wichtig in der Optimierung und der Differentialgeometrie, da sie Informationen über die Krümmung der Funktion liefert. Für eine Funktion f:Rn→Rf: \mathbb{R}^n \to \mathbb{R}f:Rn→R ist die Hessische Matrix definiert als:

H(f)=[∂2f∂x12∂2f∂x1∂x2⋯∂2f∂x1∂xn∂2f∂x2∂x1∂2f∂x22⋯∂2f∂x2∂xn⋮⋮⋱⋮∂2f∂xn∂x1∂2f∂xn∂x2⋯∂2f∂xn2]H(f) = \begin{bmatrix} \frac{\partial^2 f}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1 \partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_1 \partial x_n} \\ \frac{\partial^2 f}{\partial x_2 \partial x_1} & \frac{\partial^2 f}{\partial x_2^2} & \cdots & \frac{\partial^2 f}{\partial x_2 \partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial^2 f}{\partial x_n \partial x_1} & \frac{\partial^2 f}{\partial x_n \partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_n^2} \end{bmatrix} H(f)=​∂x12​∂2f​∂x2​∂x1​∂2f​⋮∂xn​∂x1​∂2f​​∂x1​∂x2​∂2f​∂x22​∂2f​⋮∂xn​∂x2​∂2f​​⋯⋯⋱⋯​∂x1​∂xn​∂2f​∂x2​∂xn​∂2f​⋮∂xn2​∂2f​​​

Groebner Basis

Bézout’s Identität ist ein fundamentales Konzept in der Zahlentheorie, das besagt, dass für zwei ganze Zahlen aaa und bbb mit dem größten gemeinsamen Teiler (ggT) ddd eine lineare Kombination dieser Zahlen existiert, die ddd ergibt. Mathematisch ausgedrückt bedeutet dies, dass es ganze Zahlen xxx und yyy gibt, sodass:

d=ax+byd = ax + byd=ax+by

Hierbei ist d=ggT(a,b)d = \text{ggT}(a, b)d=ggT(a,b). Diese Identität ist besonders nützlich in der Algebra und in der Lösung von Diophantischen Gleichungen. Ein praktisches Beispiel wäre, wenn a=30a = 30a=30 und b=12b = 12b=12, dann ist ggT(30,12)=6\text{ggT}(30, 12) = 6ggT(30,12)=6 und es gibt ganze Zahlen xxx und yyy, die die Gleichung 6=30x+12y6 = 30x + 12y6=30x+12y erfüllen. Bézout’s Identität zeigt somit die enge Beziehung zwischen den ggT und den Koeffizienten der linearen Kombination.

Tiefe Hirnstimulation bei Parkinson

Die Deep Brain Stimulation (DBS) ist eine innovative Behandlungsmethode für Parkinson-Patienten, die bei der Kontrolle von Bewegungsstörungen hilft. Bei diesem Verfahren werden Elektroden in bestimmte Bereiche des Gehirns implantiert, um elektrische Impulse zu senden, die die abnormale neuronale Aktivität regulieren. Diese Stimulation kann Symptome wie Tremor, Steifheit und Bewegungsverlangsamung erheblich lindern.

Die DBS wird in der Regel bei Patienten eingesetzt, die auf Medikamente nicht mehr ausreichend ansprechen oder bei denen die Nebenwirkungen der Medikation zu stark sind. Die Therapie ist reversibel und kann angepasst werden, was sie zu einer vielversprechenden Option im Management der Parkinson-Krankheit macht. Trotz ihrer Wirksamkeit ist es wichtig, dass Patienten sorgfältig ausgewählt und über mögliche Risiken informiert werden, um optimale Ergebnisse zu erzielen.

Mean-Variance-Portfoliotheorie

Die Mean-Variance Portfolio Optimization ist eine Methode zur Konstruktion eines optimalen Portfolios, das eine Balance zwischen Risiko und Rendite anstrebt. Entwickelt von Harry Markowitz in den 1950er Jahren, basiert sie auf der Annahme, dass Investoren ihre Entscheidungen auf der erwarteten Rendite und der Volatilität (Risiko) von Anlagen treffen. Der zentrale Gedanke ist, dass durch die Diversifikation von Anlagen das Gesamtrisiko eines Portfolios reduziert werden kann, ohne dass die erwartete Rendite sinkt.

Mathematisch wird das Portfolio durch die Gewichtungen der einzelnen Anlagen wiw_iwi​ optimiert, wobei die erwartete Rendite μp\mu_pμp​ und die Varianz σp2\sigma_p^2σp2​ des Portfolios wie folgt definiert sind:

μp=∑i=1nwiμi\mu_p = \sum_{i=1}^{n} w_i \mu_iμp​=i=1∑n​wi​μi​ σp2=∑i=1n∑j=1nwiwjσij\sigma_p^2 = \sum_{i=1}^{n} \sum_{j=1}^{n} w_i w_j \sigma_{ij}σp2​=i=1∑n​j=1∑n​wi​wj​σij​

Hierbei ist μi\mu_iμi​ die erwartete Rendite der einzelnen Anlagen und σij\sigma_{ij}σij​ die Kovarianz zwischen den Renditen der Anlagen. Das Ziel der Optimierung ist es, die Gewichtungen wiw_iwi​ so zu wählen, dass die erwartete Rendite maximiert und

Sparse Autoencoders

Sparse Autoencoders sind eine spezielle Art von neuronalen Netzen, die darauf abzielen, Eingabedaten in einer komprimierten Form zu repräsentieren, während sie gleichzeitig eine sparsity-Bedingung einhalten. Das bedeutet, dass nur eine kleine Anzahl von Neuronen in der versteckten Schicht aktiv ist, wenn ein Eingangsmuster präsentiert wird. Diese Sparsamkeit wird oft durch Hinzufügen eines zusätzlichen Regularisierungsterms zur Verlustfunktion erreicht, der die Aktivierung der Neuronen bestraft. Mathematisch kann dies durch die Minimierung der Kostenfunktion
J(W,b)=1m∑i=1m(x(i)−x^(i))2+λ⋅PenaltyJ(W, b) = \frac{1}{m} \sum_{i=1}^{m} (x^{(i)} - \hat{x}^{(i)})^2 + \lambda \cdot \text{Penalty}J(W,b)=m1​∑i=1m​(x(i)−x^(i))2+λ⋅Penalty
erreicht werden, wobei x^(i)\hat{x}^{(i)}x^(i) die rekonstruierten Eingaben und Penalty\text{Penalty}Penalty ein Maß für die Sparsamkeit ist. Diese Architektur eignet sich besonders gut für Merkmalslernen und Datenmanipulation, da sie die zugrunde liegenden Strukturen in den Daten effizient erfassen kann. Ein typisches Anwendungsgebiet sind beispielsweise Bildverarbeitungsaufgaben, wo eine sparsity dazu beiträgt, relevante Merkmale hervorzuheben.

Kaldor-Hicks

Das Konzept der Kaldor-Hicks-Effizienz ist ein wichtiges Prinzip in der Wohlfahrtsökonomie, das sich mit der Bewertung von wirtschaftlichen Entscheidungen und deren Auswirkungen auf die Wohlfahrt befasst. Es besagt, dass eine Veränderung oder Maßnahme dann als effizient gilt, wenn die Gewinner aus dieser Maßnahme die Verlierer so entschädigen könnten, dass alle Beteiligten besser oder zumindest nicht schlechter dastehen. Dies bedeutet, dass die Gesamtrente in der Gesellschaft steigt, auch wenn nicht alle Individuen tatsächlich entschädigt werden.

Ein Beispiel ist ein Infrastrukturprojekt, das die Lebensqualität für viele verbessert, aber einige Anwohner negativ beeinflusst. Solange die positiven Effekte des Projekts die negativen überwiegen, könnte man sagen, dass das Projekt Kaldor-Hicks effizient ist. Es ist jedoch wichtig zu beachten, dass Kaldor-Hicks-Effizienz nicht notwendigerweise Gerechtigkeit oder Gleichheit garantiert, da einige Gruppen möglicherweise deutlich schlechter gestellt werden als andere.