StudierendeLehrende

Three-Phase Rectifier

Ein Dreiphasen-Gleichrichter ist ein elektronisches Gerät, das Wechselstrom (AC) aus einem dreiphasigen System in Gleichstrom (DC) umwandelt. Er besteht typischerweise aus sechs Dioden oder Transistoren, die in einem bestimmten Schema angeordnet sind, um die positiven Halbwellen der drei Phasen zu nutzen. Der Vorteil eines Dreiphasen-Gleichrichters liegt in seiner Fähigkeit, eine gleichmäßigere und stabilere Gleichstromausgangsspannung zu liefern, da die Wellenform der Ausgangsspannung weniger ripple (Welligkeit) aufweist als bei einem einphasigen Gleichrichter.

Mathematisch kann die durchschnittliche Ausgangsspannung eines idealen dreiphasigen Gleichrichters durch die Gleichung

VDC=32πVLLV_{DC} = \frac{3 \sqrt{2}}{\pi} V_{LL}VDC​=π32​​VLL​

beschrieben werden, wobei VLLV_{LL}VLL​ die Spitzenspannung zwischen den Phasen ist. Diese Gleichrichter finden häufig Anwendung in der industriellen Stromversorgung, bei der Erzeugung von Gleichstrom für Motorantriebe und in der Leistungselektronik.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Dynamische Spiele

Dynamische Spiele sind eine spezielle Klasse von Spielen in der Spieltheorie, bei denen die Entscheidungen der Spieler über die Zeit hinweg getroffen werden und sich die Strategien im Verlauf des Spiels ändern können. Im Gegensatz zu statischen Spielen, in denen alle Spieler ihre Entscheidungen gleichzeitig und unabhängig treffen, berücksichtigen dynamische Spiele die zeitliche Abfolge der Entscheidungen und die Möglichkeit, auf die Aktionen anderer Spieler zu reagieren. Die Spieler interagieren wiederholt oder in einer sequenziellen Reihenfolge, was bedeutet, dass frühere Entscheidungen zukünftige Strategien beeinflussen können.

Ein häufiges Modell für dynamische Spiele ist das dynamische Programmieren, bei dem die optimale Strategie durch die Analyse der möglichen zukünftigen Zustände und deren Auswirkungen auf die Belohnung oder den Nutzen bestimmt wird. Mathematisch können dynamische Spiele oft durch Gleichungen dargestellt werden, die den Zustand des Spiels, die Strategien der Spieler und die resultierenden Auszahlungen beschreiben. Ein bekanntes Beispiel sind Staaten-Spiele, in denen die Spieler in jedem Schritt Entscheidungen treffen und die Konsequenzen ihrer Handlungen in zukünftigen Runden berücksichtigen müssen.

Zusammengefasst sind dynamische Spiele ein fundamentales Konzept in der Spieltheorie, das durch zeitliche Interaktion und strategische Anpassung zwischen den Spielern gekennzeichnet ist.

Chern-Zahl

Die Chern-Zahl ist ein topologisches Invarianzmaß, das in der Mathematik und Physik, insbesondere in der Festkörperphysik und der Quantenfeldtheorie, eine wichtige Rolle spielt. Sie quantifiziert die Topologie von Energiebandstrukturen in Materialien und spielt eine entscheidende Rolle bei der Klassifizierung von topologischen Phasen. Mathematisch wird die Chern-Zahl als Integral über die erste Chern-Klasse c1c_1c1​ einer gegebenen, komplexen Vektorfeldstruktur definiert:

C=12π∫BZF(k) dkC = \frac{1}{2\pi} \int_{BZ} F(k) \, dkC=2π1​∫BZ​F(k)dk

Hierbei ist F(k)F(k)F(k) die Berry-Krümmung, die aus dem Berry-Potential abgeleitet wird, und BZBZBZ steht für die Brillouin-Zone. Ein bemerkenswerter Aspekt der Chern-Zahl ist, dass sie nur ganze Zahlen annehmen kann, was bedeutet, dass topologisch unterschiedliche Zustände nicht kontinuierlich ineinander überführt werden können, ohne dass Phasenumstellungen auftreten. Dies hat tiefgreifende Konsequenzen für das Verständnis von Phänomenen wie dem quantisierten Hall-Effekt und anderen topologischen Phasen in Festkörpern.

Variationsinferenztechniken

Variational Inference (VI) ist ein leistungsfähiges Verfahren zur Approximation von posterioren Verteilungen in probabilistischen Modellen. Anstatt die komplexe, oft analytisch nicht lösbare posterior Verteilung direkt zu berechnen, wird ein einfacherer, parametrischer Verteilungsfamilie q(θ;ϕ)q(\theta; \phi)q(θ;ϕ) gewählt, die durch die Variablen ϕ\phiϕ parametrisiert wird. Das Ziel von VI ist es, die Parameter ϕ\phiϕ so zu optimieren, dass die Kullback-Leibler-Divergenz zwischen der gewählten Verteilung und der tatsächlichen posterioren Verteilung minimiert wird:

DKL(q(θ;ϕ)∥p(θ∣x))=∫q(θ;ϕ)log⁡q(θ;ϕ)p(θ∣x)dθD_{KL}(q(\theta; \phi) \| p(\theta | x)) = \int q(\theta; \phi) \log \frac{q(\theta; \phi)}{p(\theta | x)} d\thetaDKL​(q(θ;ϕ)∥p(θ∣x))=∫q(θ;ϕ)logp(θ∣x)q(θ;ϕ)​dθ

Durch Minimierung dieser Divergenz wird die Approximation verbessert. VI ist besonders nützlich in großen Datensätzen und komplexen Modellen, wo traditionelle Methoden wie Markov-Chain-Monte-Carlo (MCMC) ineffizient sein können. Zu den gängigen VI-Techniken gehören Mean-Field Approximation, bei der die Unabhängigkeit der Variablen angenommen wird, und Stochastic Variational Inference, das stochastische Optimierung verwendet, um die Eff

GARCH-Modell

Das GARCH-Modell (Generalized Autoregressive Conditional Heteroskedasticity) ist ein statistisches Modell, das häufig zur Analyse und Vorhersage von Zeitreihen mit variabler Volatilität verwendet wird, insbesondere in der Finanzwirtschaft. Es wurde entwickelt, um die Heteroskedastizität zu berücksichtigen, d.h. die Tatsache, dass die Varianz der Fehlerterme in einem Zeitreihenmodell nicht konstant ist, sondern sich über die Zeit ändert.

Das GARCH-Modell beschreibt die bedingte Varianz einer Zeitreihe als Funktion ihrer vorherigen Werte. Die allgemeine Form des GARCH(1,1)-Modells wird durch die Gleichung

σt2=α0+α1ϵt−12+β1σt−12\sigma_t^2 = \alpha_0 + \alpha_1 \epsilon_{t-1}^2 + \beta_1 \sigma_{t-1}^2σt2​=α0​+α1​ϵt−12​+β1​σt−12​

definiert, wobei σt2\sigma_t^2σt2​ die bedingte Varianz zum Zeitpunkt ttt, ϵt−12\epsilon_{t-1}^2ϵt−12​ den vorherigen Fehlerterm und σt−12\sigma_{t-1}^2σt−12​ die vorherige bedingte Varianz darstellt. Die Parameter α0\alpha_0α0​, α1\alpha_1α1​ und β1\beta_1β1​ müssen positiv sein und erfüllen die Bedingung $ \alpha_1

Rf-Signalmodulationstechniken

Rf-Signalmodulationstechniken sind Verfahren, die verwendet werden, um Informationen über Hochfrequenzsignale (RF) zu übertragen. Bei der Modulation wird ein Trägersignal verändert, um die gewünschten Informationen in Form von Amplitude, Frequenz oder Phase zu codieren. Die häufigsten Modulationstechniken sind:

  • Amplitude Modulation (AM): Hierbei wird die Amplitude des Trägersignals variiert, während die Frequenz konstant bleibt. Diese Technik ist einfach, hat jedoch eine geringere Effizienz und ist anfällig für Störungen.

  • Frequency Modulation (FM): Bei dieser Methode wird die Frequenz des Trägersignals verändert, um Informationen zu übertragen. FM bietet eine bessere Klangqualität und ist weniger anfällig für Störungen, wird jedoch in der Regel für höhere Frequenzen verwendet.

  • Phase Modulation (PM): Diese Technik verändert die Phase des Trägersignals, um die Informationen zu übertragen. Sie ist besonders nützlich in digitalen Kommunikationssystemen.

Die Wahl der Modulationstechnik hängt von verschiedenen Faktoren ab, einschließlich der gewünschten Übertragungsreichweite, der Bandbreite, der Signalqualität und der Umgebungsbedingungen.

Stochastischer Gradientenabstieg

Stochastic Gradient Descent (SGD) ist ein Optimierungsalgorithmus, der häufig im Bereich des maschinellen Lernens und der neuronalen Netze eingesetzt wird. Im Gegensatz zum traditionellen Gradientenabstieg, der den gesamten Datensatz verwendet, um den Gradienten der Verlustfunktion zu berechnen, nutzt SGD nur einen einzelnen Datenpunkt oder eine kleine Stichprobe (Mini-Batch) in jedem Schritt. Dies führt zu einer schnelleren und dynamischeren Anpassung der Modellparameter, da die Updates häufiger und mit weniger Rechenaufwand erfolgen.

Der Algorithmus aktualisiert die Parameter θ\thetaθ eines Modells gemäß der Regel:

θ=θ−η∇J(θ;x(i),y(i))\theta = \theta - \eta \nabla J(\theta; x^{(i)}, y^{(i)})θ=θ−η∇J(θ;x(i),y(i))

Hierbei ist η\etaη die Lernrate, ∇J(θ;x(i),y(i))\nabla J(\theta; x^{(i)}, y^{(i)})∇J(θ;x(i),y(i)) der Gradient der Verlustfunktion JJJ für den Datenpunkt (x(i),y(i))(x^{(i)}, y^{(i)})(x(i),y(i)). Trotz seiner Vorteile kann SGD jedoch zu einer hohen Varianz in den Updates führen, was es notwendig macht, geeignete Techniken wie Lernratenanpassung oder Momentum zu verwenden, um die Konvergenz zu verbessern.