StudierendeLehrende

Lucas Supply Function

Die Lucas Supply Function ist ein Konzept in der Makroökonomie, das von dem Ökonom Robert Lucas entwickelt wurde. Sie beschreibt, wie das Angebot an Gütern und Dienstleistungen in einer Volkswirtschaft auf Veränderungen in den Preisen reagiert, insbesondere unter Berücksichtigung von erwarteten versus tatsächlichen Preisen. Die Funktion basiert auf der Annahme, dass Unternehmen auf Preisänderungen reagieren, indem sie ihre Produktionsmengen anpassen, um ihre Gewinne zu maximieren.

Ein zentrales Element der Lucas Supply Function ist die Idee, dass die Anbieter nur dann auf Preisänderungen reagieren, wenn sie diese als permanent oder langfristig wahrnehmen. Kurzfristige Preisschwankungen würden demnach weniger Einfluss auf das Angebot haben. Mathematisch kann die Funktion oft in der Form Y=f(Pe,P)Y = f(P_e, P)Y=f(Pe​,P) dargestellt werden, wobei YYY die Angebotsmenge, PeP_ePe​ der erwartete Preis und PPP der tatsächliche Preis ist. Diese Beziehung zeigt, dass das Angebot nicht nur von den aktuellen Preisen abhängt, sondern auch von den Erwartungen der Unternehmen über zukünftige Entwicklungen.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Cryo-EM-Strukturbestimmung

Die Cryo-Elektronenmikroskopie (Cryo-EM) ist eine revolutionäre Technik zur strukturellen Bestimmung von Biomolekülen in ihrem nativen Zustand. Bei diesem Verfahren werden Proben in flüssigem Stickstoff schnell eingefroren, wodurch die Bildung von Eiskristallen vermieden wird und die molekulare Struktur erhalten bleibt. Die gewonnenen Bilder werden dann mit hochauflösenden Elektronenmikroskopen aufgenommen, die es ermöglichen, dreidimensionale Rekonstruktionen der Proben zu erstellen.

Ein zentraler Vorteil der Cryo-EM ist die Fähigkeit, große und komplexe Proteinkomplexe zu visualisieren, die mit traditionellen kristallographischen Methoden schwer zu analysieren sind. Die Datenanalyse erfolgt typischerweise durch Single-Particle Reconstruction, bei der Tausende von Einzelbildern kombiniert werden, um ein hochauflösendes 3D-Modell zu erstellen. Diese Technik hat sich als äußerst nützlich in der biomedizinischen Forschung erwiesen, insbesondere für die Entwicklung von Medikamenten und das Verständnis von Krankheiten auf molekularer Ebene.

Nash-Gleichgewicht mit gemischten Strategien

Ein Nash Equilibrium in einer gemischten Strategie tritt auf, wenn jeder Spieler in einem Spiel eine Wahrscheinlichkeitsverteilung über seine möglichen Strategien wählt, sodass keiner der Spieler einen Anreiz hat, seine Strategie zu ändern, vorausgesetzt, die anderen Spieler halten ihre Strategien konstant. In diesem Kontext bedeutet eine gemischte Strategie, dass ein Spieler nicht immer die gleiche Strategie anwendet, sondern seine Entscheidungen zufällig trifft, um unberechenbar zu bleiben.

Das Nash-Gleichgewicht ist erreicht, wenn die erwarteten Auszahlungen für alle Spieler maximiert sind und die Strategien der Spieler optimal aufeinander abgestimmt sind. Mathematisch ausgedrückt, sei pip_ipi​ die Wahrscheinlichkeit, mit der Spieler iii seine Strategie wählt. Das Gleichgewicht wird erreicht, wenn die Bedingung gilt, dass für jede Strategie sis_isi​ die folgende Ungleichung gilt:

E[ui(si,s−i)]≥E[ui(si′,s−i)]E[u_i(s_i, s_{-i})] \geq E[u_i(s'_i, s_{-i})]E[ui​(si​,s−i​)]≥E[ui​(si′​,s−i​)]

Hierbei ist uiu_iui​ die Auszahlung für Spieler iii, s−is_{-i}s−i​ die Strategien der anderen Spieler und si′s'_isi′​ eine alternative Strategie von Spieler iii. In einem Nash-Gleichgewicht ist also die Wahl der gemischten Strategien eine optimale Antwort auf die Strategien

Legendre-Polynome

Die Legendre-Polynome sind eine Familie von orthogonalen Polynomfunktionen, die in der Mathematik und Physik weit verbreitet sind, insbesondere in der Lösung von Differentialgleichungen und in der Theorie der Potenzialfelder. Sie sind definiert auf dem Intervall [−1,1][-1, 1][−1,1] und werden oft mit Pn(x)P_n(x)Pn​(x) bezeichnet, wobei nnn den Grad des Polynoms angibt. Die ersten paar Legendre-Polynome sind:

  • P0(x)=1P_0(x) = 1P0​(x)=1
  • P1(x)=xP_1(x) = xP1​(x)=x
  • P2(x)=12(3x2−1)P_2(x) = \frac{1}{2}(3x^2 - 1)P2​(x)=21​(3x2−1)
  • P3(x)=12(5x3−3x)P_3(x) = \frac{1}{2}(5x^3 - 3x)P3​(x)=21​(5x3−3x)

Diese Polynome erfüllen die orthogonale Bedingung:

∫−11Pm(x)Pn(x) dx=0fu¨r m≠n\int_{-1}^{1} P_m(x) P_n(x) \, dx = 0 \quad \text{für } m \neq n∫−11​Pm​(x)Pn​(x)dx=0fu¨r m=n

Die Legendre-Polynome sind besonders nützlich in der Physik, zum Beispiel bei der Lösung des Laplace-Gleichung im Kugelkoordinatensystem, da sie die Eigenschaften von sphärischen Harmonischen beschreiben.

Planck-Skalen-Physik

Die Planck-Skala bezieht sich auf die kleinsten Maßstäbe im Universum, die durch die Planck-Einheiten definiert sind. Diese Einheiten sind eine Kombination aus fundamentalen physikalischen Konstanten und umfassen die Planck-Länge (lPl_PlP​), die Planck-Zeit (tPt_PtP​) und die Planck-Masse (mPm_PmP​). Beispielsweise beträgt die Planck-Länge etwa 1.6×10−351.6 \times 10^{-35}1.6×10−35 Meter und die Planck-Zeit etwa 5.4×10−445.4 \times 10^{-44}5.4×10−44 Sekunden.

Auf dieser Skala wird die klassische Physik, wie sie in der Relativitätstheorie und der Quantenmechanik beschrieben wird, unzureichend, da die Effekte der Gravitation und der Quantenmechanik gleich wichtig werden. Dies führt zu spekulativen Theorien, wie etwa der Stringtheorie oder der Schleifenquantengravitation, die versuchen, ein einheitliches Bild der physikalischen Gesetze auf der Planck-Skala zu schaffen. Das Verständnis der Planck-Skala könnte entscheidend sein für die Entwicklung einer umfassenden Theorie von allem, die die vier Grundkräfte der Natur vereint: Gravitation, Elektromagnetismus, starke und schwache Kernkraft.

Legendre-Polynom

Die Legendre-Polynome sind eine Familie von orthogonalen Polynomen, die in der Mathematik eine wichtige Rolle spielen, insbesondere in der Numerischen Integration und der Lösung von Differentialgleichungen. Sie sind definiert auf dem Intervall [−1,1][-1, 1][−1,1] und werden häufig mit Pn(x)P_n(x)Pn​(x) bezeichnet, wobei nnn den Grad des Polynoms angibt. Die Polynome können rekursiv durch die Beziehung

P0(x)=1,P1(x)=x,Pn(x)=(2n−1)xPn−1(x)−(n−1)Pn−2(x)nP_0(x) = 1, \quad P_1(x) = x, \quad P_n(x) = \frac{(2n - 1)xP_{n-1}(x) - (n-1)P_{n-2}(x)}{n}P0​(x)=1,P1​(x)=x,Pn​(x)=n(2n−1)xPn−1​(x)−(n−1)Pn−2​(x)​

für n≥2n \geq 2n≥2 erzeugt werden.

Ein bemerkenswertes Merkmal der Legendre-Polynome ist ihre Orthogonalität: Sie erfüllen die Bedingung

∫−11Pm(x)Pn(x) dx=0fu¨r m≠n.\int_{-1}^{1} P_m(x) P_n(x) \, dx = 0 \quad \text{für } m \neq n.∫−11​Pm​(x)Pn​(x)dx=0fu¨r m=n.

Diese Eigenschaft macht sie besonders nützlich in der Approximationstheorie und in der Physik, insbesondere bei der Lösung von Problemen, die mit sphärischer Symmetrie verbunden sind.

Digitale Zwillinge in der Technik

Digital Twins sind digitale Replikate physischer Systeme, die in der Ingenieurwissenschaft zunehmend an Bedeutung gewinnen. Sie ermöglichen es Ingenieuren, komplexe physische Prozesse, Produkte oder Systeme in einer virtuellen Umgebung zu modellieren und zu analysieren. Durch den Einsatz von sensorgestützten Daten und echtzeit-Analysen können Ingenieure das Verhalten und die Leistung ihrer Produkte überwachen und optimieren. Dies führt zu einer signifikanten Reduzierung von Entwicklungszeiten und -kosten, da potenzielle Probleme frühzeitig identifiziert und behoben werden können. Darüber hinaus fördern Digital Twins eine intelligente Entscheidungsfindung, indem sie verschiedene Szenarien simulieren und die Auswirkungen von Änderungen in einem geschützten digitalen Raum vorhersagen. In der Zukunft könnten Digital Twins eine Schlüsselrolle in der Industrie 4.0 spielen, indem sie die Integration von IoT (Internet of Things) und KI (Künstliche Intelligenz) vorantreiben.