StudierendeLehrende

Normalizing Flows

Normalizing Flows sind eine Klasse von generativen Modellen, die es ermöglichen, komplexe Wahrscheinlichkeitsverteilungen zu lernen, indem sie einfache Verteilungen durch eine Reihe von invertierbaren Transformationen umformen. Der grundlegende Ansatz besteht darin, eine einfache, oft multivariate Normalverteilung als Ausgangspunkt zu wählen und dann durch schrittweise Transformationen diese Verteilung in eine komplexere Form zu überführen. Jede Transformation wird durch eine Funktion beschrieben, deren Inverse leicht berechnet werden kann, was die Berechnung der Jacobian-Determinante ermöglicht. Diese Technik erlaubt es, die Dichte der Zielverteilung effizient zu berechnen, indem man die Formel für die Änderung der Dichte bei einer Transformation nutzt:

p(x)=p(z)∣det⁡∂f−1∂z∣p(x) = p(z) \left| \det \frac{\partial f^{-1}}{\partial z} \right|p(x)=p(z)​det∂z∂f−1​​

Hierbei ist p(z)p(z)p(z) die Dichte der einfachen Verteilung und fff die Transformation. Durch diese Flexibilität können Normalizing Flows für verschiedene Anwendungen eingesetzt werden, einschließlich Bildgenerierung, Zeitreihenanalyse und anderen Bereichen des maschinellen Lernens.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Kalman-Filter optimale Schätzung

Der Kalman-Filter ist ein rekursives Schätzverfahren, das zur optimalen Schätzung des Zustands eines dynamischen Systems verwendet wird, welches durch Rauschen und Unsicherheiten beeinflusst wird. Er kombiniert Messungen, die mit Unsicherheiten behaftet sind, mit einem mathematischen Modell des Systems, um eine verbesserte Schätzung des Zustands zu liefern. Der Filter basiert auf zwei Hauptschritten:

  1. Vorhersage: Hierbei wird der aktuelle Zustand des Systems auf der Grundlage des vorherigen Zustands und des Systemmodells geschätzt.
  2. Korrektur: In diesem Schritt wird die Vorhersage mit den neuen Messungen kombiniert, um die Schätzung zu aktualisieren.

Die mathematische Darstellung des Kalman-Filters beinhaltet die Verwendung von Zustandsvektoren xxx, Messrauschen vvv und Prozessrauschen www. Der Filter ist besonders nützlich in Anwendungen wie der Navigation, der Robotik und der Signalverarbeitung, da er eine effiziente und präzise Möglichkeit bietet, aus verrauschten Messdaten sinnvolle Informationen zu extrahieren.

Superfluidität

Superfluidität ist ein physikalisches Phänomen, das in bestimmten Flüssigkeiten bei extrem niedrigen Temperaturen auftritt, typischerweise nahe dem absoluten Nullpunkt. In diesem Zustand zeigen die Flüssigkeiten bemerkenswerte Eigenschaften, wie die Fähigkeit, ohne Reibung zu fließen. Dies bedeutet, dass sie sich ungehindert bewegen können, so dass eine superfluide Helium-4-Probe ohne Energieverlust in einem geschlossenen Kreislauf zirkulieren kann.

Ein charakteristisches Merkmal der Superfluidität ist die Bildung von Langzeit-Kohärenz in der Teilchenanordnung, was zu einer quantenmechanischen Kohärenz führt, die sich in makroskopischen Effekten äußert. Diese Effekte können unter anderem das Phänomen der Kapillarität und das Klettern von Flüssigkeiten an Wänden umfassen. Das Verständnis von Superfluidität ist nicht nur für die Physik von Bedeutung, sondern hat auch Anwendungen in der Kryotechnik und der Quantenmechanik.

New Keynesian Sticky Prices

Die Theorie der New Keynesian Sticky Prices beschreibt, wie Preise in einer Volkswirtschaft nicht sofort auf Veränderungen der Nachfrage oder Kosten reagieren, was zu einer Verzögerung in der Anpassung führt. Diese Preisklebrigkeit entsteht oft aufgrund von Faktoren wie Menü-Kosten, also den Kosten, die Unternehmen tragen müssen, um ihre Preise anzupassen, sowie durch langfristige Verträge und Preissetzungsstrategien. In diesem Modell können Unternehmen ihre Preise nur in bestimmten Intervallen ändern, was bedeutet, dass sie kurzfristig nicht in der Lage sind, auf wirtschaftliche Schocks zu reagieren.

Die New Keynesian Theorie betont die Bedeutung dieser Preisklebrigkeit für die Geldpolitik, da sie erklärt, warum eine expansive Geldpolitik in Zeiten von wirtschaftlichen Abschwüngen zu einer Erhöhung der Produktion und Beschäftigung führen kann. Mathematisch lässt sich dies oft durch die Gleichung der aggregierten Nachfrage darstellen, die zeigt, wie die realen Preise von den nominalen Preisen abweichen können. In einem solchen Kontext wird die Rolle der Zentralbank entscheidend, um durch geldpolitische Maßnahmen die Wirtschaft zu stabilisieren.

Leistungsdichtespektrum

Die Power Spectral Density (PSD) ist ein Maß für die Verteilung der Leistung eines Signals über verschiedene Frequenzen. Sie beschreibt, wie die Energie eines Signals im Frequenzbereich konzentriert ist und wird häufig in der Signalverarbeitung und Kommunikationstechnik verwendet. Die PSD wird typischerweise in Einheiten von Leistung pro Frequenzeinheit, z. B. Watt pro Hertz (W/Hz), angegeben. Mathematisch wird die PSD oft als die Fourier-Transformierte der Autokorrelationsfunktion eines Signals definiert:

S(f)=∫−∞∞R(τ)e−j2πfτdτS(f) = \int_{-\infty}^{\infty} R(\tau) e^{-j 2 \pi f \tau} d\tauS(f)=∫−∞∞​R(τ)e−j2πfτdτ

wobei R(τ)R(\tau)R(τ) die Autokorrelationsfunktion ist. Die Analyse der PSD ermöglicht es, Frequenzkomponenten eines Signals zu identifizieren und deren relative Stärke zu bewerten, was in Anwendungen wie Rauschmessungen, Systemanalysen und der Überwachung von Signalqualität von großer Bedeutung ist.

Edge-Computing-Architektur

Edge Computing Architecture bezieht sich auf ein dezentrales Rechenmodell, bei dem Datenverarbeitung und Analyse näher an der Quelle der Datenerzeugung stattfinden, anstatt in zentralisierten Cloud-Rechenzentren. Dies geschieht häufig durch die Nutzung von Edge-Geräten, die an verschiedenen Standorten, wie zum Beispiel IoT-Geräten, Sensoren oder lokalen Servern, platziert sind. Die Hauptvorteile dieser Architektur sind reduzierte Latenzzeiten, da Daten nicht über große Entfernungen gesendet werden müssen, sowie eine erhöhte Bandbreitenoptimierung, da nur relevante Daten an die Cloud gesendet werden.

Die Edge Computing Architecture kann in folgende Schichten unterteilt werden:

  1. Edge Layer: Umfasst die physischen Geräte und Sensoren, die Daten erzeugen.
  2. Edge Processing Layer: Hier findet die erste Datenverarbeitung statt, oft direkt auf den Geräten oder in der Nähe.
  3. Data Aggregation Layer: Diese Schicht aggregiert und filtert die Daten, bevor sie an die Cloud gesendet werden.
  4. Cloud Layer: Bietet eine zentrale Plattform für tiefere Analysen und langfristige Datenspeicherung.

Durch diese Struktur wird nicht nur die Effizienz erhöht, sondern auch die Sicherheit verbessert, da sensible Daten lokal verarbeitet werden können.

Digitale Filterentwurfsmethoden

Die Entwicklung digitaler Filter ist ein entscheidender Prozess in der Signalverarbeitung, der es ermöglicht, bestimmte Frequenzkomponenten eines Signals zu verstärken oder zu dämpfen. Es gibt verschiedene Methoden zur Gestaltung digitaler Filter, darunter die Butterworth-, Chebyshev- und elliptischen Filter. Diese Methoden unterscheiden sich in ihrer Frequenzantwort, insbesondere in Bezug auf die Flachheit der Passbandantwort und die Steilheit des Übergangsbereichs.

Ein gängiger Ansatz ist die Verwendung von IIR- (Infinite Impulse Response) und FIR- (Finite Impulse Response) Filtern. IIR-Filter sind effizient, da sie weniger Koeffizienten benötigen, können jedoch Stabilitätsprobleme aufweisen. FIR-Filter hingegen sind stabiler und bieten eine lineare Phase, erfordern jedoch in der Regel mehr Rechenressourcen. Die Gestaltung eines digitalen Filters umfasst oft die Definition von Spezifikationen wie der gewünschten Passbandfrequenz, der Stopbandfrequenz und den maximalen Dämpfungen, die mithilfe von Techniken wie der bilinearen Transformation oder der Impulsinvarianz implementiert werden können.