StudierendeLehrende

Karp-Rabin Algorithm

Der Karp-Rabin Algorithmus ist ein effizienter Suchalgorithmus zur Mustererkennung in Texten, der auf der Verwendung von Hash-Funktionen basiert. Er ermöglicht es, ein Muster in einem Text mit einer durchschnittlichen Zeitkomplexität von O(n)O(n)O(n), wobei nnn die Länge des Textes ist, zu finden. Der Algorithmus berechnet einen Hash-Wert für das Muster und für die substrings des Textes mit der gleichen Länge wie das Muster. Wenn die Hash-Werte übereinstimmen, wird eine genauere Überprüfung des Musters durchgeführt, um sicherzustellen, dass es sich tatsächlich um einen Treffer handelt.

Die Hash-Funktion wird typischerweise als polynomialer Hash definiert:

H(S)=(s0⋅bm−1+s1⋅bm−2+…+sm−1⋅b0)mod  pH(S) = (s_0 \cdot b^{m-1} + s_1 \cdot b^{m-2} + \ldots + s_{m-1} \cdot b^0) \mod pH(S)=(s0​⋅bm−1+s1​⋅bm−2+…+sm−1​⋅b0)modp

wobei SSS die Zeichen des Musters, mmm die Länge des Musters, bbb eine Basis und ppp eine Primzahl ist. Ein Vorteil des Karp-Rabin Algorithmus ist die Möglichkeit, den Hash-Wert effizient von einem substring zum nächsten zu aktualisieren, was die Berechnungen beschleunigt.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Verlustaversion in der Verhaltensökonomie

Loss Aversion ist ein zentrales Konzept der Behavioral Finance, das beschreibt, dass Menschen Verluste stärker empfinden als Gewinne von gleicher Größe. Diese Tendenz führt dazu, dass Individuen oft riskantere Entscheidungen vermeiden, um potenzielle Verluste zu verhindern, selbst wenn die Chancen auf Gewinne attraktiv sind. Psychologisch gesehen empfinden Menschen einen Verlust als etwa zweimal schmerzhaft wie einen gleichwertigen Gewinn Freude bereitet. Dies kann zu irrationalen Entscheidungen führen, wie z.B. das Festhalten an verlustbringenden Investitionen oder das Vermeiden von notwendigen Risiken. Beispielsweise könnte ein Investor, der mit einem Verlust von 500 Euro konfrontiert ist, zögern, eine Aktie zu verkaufen, die weiterhin an Wert verliert, nur um den Verlust nicht zu realisieren. In der Praxis zeigt sich die Verlustaversion auch in der Kauf- und Verkaufspsychologie, wo Anleger oft zu lange an verlustbringenden Positionen festhalten, während sie Gewinne schnell realisieren.

Ultrametrischer Raum

Ein ultrametrischer Raum ist eine spezielle Art von metrischem Raum, der durch eine ultrametrische Distanzfunktion charakterisiert ist. Diese Distanzfunktion d:X×X→Rd: X \times X \to \mathbb{R}d:X×X→R erfüllt die folgenden Eigenschaften für alle x,y,z∈Xx, y, z \in Xx,y,z∈X:

  1. Nicht-Negativität: d(x,y)≥0d(x, y) \geq 0d(x,y)≥0
  2. Identität: d(x,y)=0d(x, y) = 0d(x,y)=0 genau dann, wenn x=yx = yx=y
  3. Symmetrie: d(x,y)=d(y,x)d(x, y) = d(y, x)d(x,y)=d(y,x)
  4. Dreiecksungleichung: d(x,z)≤max⁡(d(x,y),d(y,z))d(x, z) \leq \max(d(x, y), d(y, z))d(x,z)≤max(d(x,y),d(y,z))

Die wichtigste Eigenschaft, die ultrametrische Räume von gewöhnlichen metrischen Räumen unterscheidet, ist die Dreiecksungleichung, die hier in einer stärkeren Form auftritt. Ultrametrische Räume finden Anwendung in verschiedenen Bereichen, wie etwa in der Zahlentheorie und der Topologie, sowie in der Bioinformatik zur Analyse von genetischen Daten. Ein bekanntes Beispiel für einen ultrametrischen Raum ist der Raum der p-adischen Zahlen, wo die Distanz zwischen zwei Zahlen durch den

Entropie-Codierung in der Kompression

Entropy Encoding ist eine Methode zur Datenkompression, die auf der Wahrscheinlichkeit der Darstellung von Symbolen in einer Nachricht basiert. Im Wesentlichen wird die Idee verfolgt, dass häufig vorkommende Symbole mit kürzeren Codes und seltener vorkommende Symbole mit längeren Codes dargestellt werden. Dies geschieht, um die durchschnittliche Länge der Codes zu minimieren, was zu einer effizienteren Speicherung und Übertragung von Daten führt. Zwei der bekanntesten Algorithmen für die Entropie-Codierung sind Huffman-Codierung und arithmetische Codierung.

Die Effizienz dieser Technik beruht auf dem Shannon'schen Entropie-Konzept, das die Unsicherheit oder den Informationsgehalt einer Quelle quantifiziert. Wenn man die Entropie HHH einer Quelle mit den Wahrscheinlichkeiten p(xi)p(x_i)p(xi​) der Symbole xix_ixi​ definiert, ergibt sich:

H(X)=−∑ip(xi)log⁡2p(xi)H(X) = -\sum_{i} p(x_i) \log_2 p(x_i)H(X)=−i∑​p(xi​)log2​p(xi​)

Durch die Anwendung von Entropy Encoding kann die Menge an benötigtem Speicherplatz erheblich reduziert werden, was besonders in Anwendungen wie Bild-, Audio- und Videokompression von großer Bedeutung ist.

Stokes' Satz

Stokes' Theorem ist ein fundamentales Resultat der Vektoranalysis, das eine Beziehung zwischen der Integration eines Vektorfeldes über eine Fläche und der Integration seiner Rotation über den Rand dieser Fläche herstellt. Formal ausgedrückt, lautet das Theorem:

∬S(∇×F)⋅dS=∮∂SF⋅dr\iint_{S} (\nabla \times \mathbf{F}) \cdot d\mathbf{S} = \oint_{\partial S} \mathbf{F} \cdot d\mathbf{r}∬S​(∇×F)⋅dS=∮∂S​F⋅dr

Hierbei ist SSS eine orientierte Fläche, ∂S\partial S∂S der Rand dieser Fläche, F\mathbf{F}F ein Vektorfeld, ∇×F\nabla \times \mathbf{F}∇×F die Rotation von F\mathbf{F}F, und dSd\mathbf{S}dS sowie drd\mathbf{r}dr sind die Flächen- bzw. Linienelemente. Stokes' Theorem verknüpft somit die lokale Eigenschaft der Rotation eines Vektorfeldes mit der globalen Eigenschaft über die Randkurve. Dieses Theorem hat weitreichende Anwendungen in Physik und Ingenieurwissenschaften, insbesondere in der Elektrodynamik und Fluiddynamik, da es hilft, komplexe Integrationen zu vereinfachen und zu verstehen.

Diffusionsmodelle

Diffusion Models sind eine Klasse von probabilistischen Modellen, die zur Erzeugung von Daten verwendet werden, insbesondere in den Bereichen der Bild- und Sprachsynthese. Sie funktionieren, indem sie einen Prozess simulieren, der Rauschen schrittweise hinzufügt und dann durch einen Umkehrprozess wieder entfernt. Der zentrale Mechanismus dieser Modelle basiert auf der Diffusionstheorie, die beschreibt, wie sich Informationen oder Partikel in einem Medium ausbreiten.

In der Praxis wird ein Bild beispielsweise schrittweise mit Rauschen versehen, bis es vollständig verrauscht ist. Das Modell lernt dann, in umgekehrter Reihenfolge zu arbeiten, um das Rauschen schrittweise zu reduzieren und ein neues, realistisches Bild zu erzeugen. Mathematisch wird dieser Prozess oft durch Stochastische Differentialgleichungen beschrieben, wobei die Übergangswahrscheinlichkeiten der Zustände eine wesentliche Rolle spielen. Diffusion Models haben in den letzten Jahren an Popularität gewonnen, da sie in der Lage sind, hochrealistische und qualitativ hochwertige Daten zu generieren.

Splay-Baum-Rotation

Die Splay Tree Rotation ist ein wichtiger Bestandteil der Splay-Baum-Datenstruktur, die dazu dient, häufig verwendete Elemente näher zur Wurzel zu bringen, um den Zugriff auf sie zu beschleunigen. Bei einer Splay-Operation wird ein Knoten, der als Ziel identifiziert wurde, durch eine Serie von Rotationen an die Wurzel des Baumes verschoben. Es gibt drei Hauptarten von Rotationen: Zig, Zig-Zig und Zig-Zag.

  • Zig: Tritt auf, wenn der Zielknoten ein Kind der Wurzel ist. Hierbei wird der Zielknoten zur neuen Wurzel, und der alte Wurzelknoten wird zum anderen Kind des neuen Wurzelknotens.

  • Zig-Zig: Tritt auf, wenn der Zielknoten ein Kind des linken (oder rechten) Kindes der Wurzel ist. In diesem Fall werden beide Knoten gleichzeitig rotiert, sodass der Zielknoten zur neuen Wurzel wird.

  • Zig-Zag: Tritt auf, wenn der Zielknoten ein Kind des rechten (oder linken) Kindes ist, aber nicht direkt des Wurzelknotens. Hier erfolgt eine Kombination von Rotationen, um den Zielknoten in die Nähe der Wurzel zu bringen.

Diese Rotationen sorgen dafür, dass die Zug