StudierendeLehrende

Rayleigh Criterion

Das Rayleigh-Kriterium ist ein fundamentales Konzept in der Optik, das die Auflösungsfähigkeit von optischen Systemen, wie beispielsweise Teleskopen oder Mikroskopen, beschreibt. Es definiert die minimale Winkeltrennung θ\thetaθ, bei der zwei Lichtquellen als getrennt wahrgenommen werden können. Nach diesem Kriterium gilt, dass die Quellen als getrennt erkannt werden, wenn der zentrale Maximalwert des Beugungsmusters einer Quelle mit dem ersten Minimum des Beugungsmusters der anderen Quelle übereinstimmt.

Mathematisch wird das Rayleigh-Kriterium durch die folgende Beziehung ausgedrückt:

θ=1.22λD\theta = 1.22 \frac{\lambda}{D}θ=1.22Dλ​

Hierbei ist λ\lambdaλ die Wellenlänge des Lichtes und DDD der Durchmesser der Apertur (z.B. des Objektivs). Ein größerer Durchmesser führt zu einer besseren Auflösung, während eine kürzere Wellenlänge ebenfalls die Auflösungsfähigkeit verbessert. Dies ist besonders wichtig in der Astronomie, wo die Beurteilung der Auflösung von Teleskopen entscheidend für die Beobachtung von fernen Sternen und Galaxien ist.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Kapitalvertiefung vs. Kapitalerweiterung

Capital Deepening und Capital Widening sind zwei Konzepte, die häufig in der Volkswirtschaftslehre verwendet werden, um Investitionen in Kapitalgüter zu beschreiben. Capital Deepening bezieht sich auf eine Erhöhung der Kapitalintensität in der Produktion, was bedeutet, dass Unternehmen in qualitativ hochwertigere oder produktivere Maschinen und Technologien investieren. Dies führt in der Regel zu einer höheren Produktivität der Arbeit, da jeder Arbeiter mit mehr oder besseren Werkzeugen ausgestattet ist.

Im Gegensatz dazu bezeichnet Capital Widening die Erhöhung der Gesamtkapitalmenge, ohne die Kapitalintensität zu verändern. Dies geschieht oft durch die Anschaffung zusätzlicher Maschinen oder Anlagen, um die Produktionskapazität zu erweitern. Während Capital Deepening oft zu einer effizienteren Produktion und einem Anstieg des Pro-Kopf-Einkommens führt, kann Capital Widening einfach die Produktionskapazität erhöhen, ohne notwendigerweise die Produktivität der bestehenden Arbeitskräfte zu verbessern.

Zusammengefasst:

  • Capital Deepening: Investitionen in bessere oder effizientere Kapitalgüter.
  • Capital Widening: Erweiterung des Kapitalstocks ohne Steigerung der Effizienz.

Josephson-Effekt

Der Josephson-Effekt beschreibt das Phänomen, das auftritt, wenn zwei supraleitende Materialien durch eine dünne isolierende Schicht voneinander getrennt sind. In diesem Zustand können Elektronenpaare, die als Cooper-Paare bekannt sind, durch die Isolatorschicht tunneln, ohne eine elektrische Spannung anlegen zu müssen. Dies führt zu einem stromlosen Zustand, in dem eine supraleitende Phase über die Isolationsschicht hinweg erhalten bleibt. Der Effekt wird häufig in der Quantenmechanik und in der Entwicklung von Quantencomputern sowie präzisen Messgeräten verwendet. Die Beziehung zwischen der Phase der supraleitenden Wellenfunktion und dem Strom kann durch die Gleichung

I=Icsin⁡(ϕ)I = I_c \sin(\phi)I=Ic​sin(ϕ)

beschrieben werden, wobei III der Tunnelstrom, IcI_cIc​ der kritische Strom und ϕ\phiϕ die Phasendifferenz zwischen den beiden Supraleitern ist. Der Josephson-Effekt ist ein zentrales Prinzip in vielen modernen Technologien, einschließlich der Entwicklung von sogenannten Josephson-Junctions, die in verschiedenen Anwendungen von der Quanteninformationsverarbeitung bis zur hochpräzisen Magnetfeldmessung eingesetzt werden.

CMOS-Inverter-Verzögerung

Der CMOS Inverter Delay bezieht sich auf die Zeit, die benötigt wird, um den Ausgang eines CMOS-Inverters von einem stabilen Zustand in einen anderen zu ändern, nachdem ein Eingangssignal an den Inverter angelegt wurde. Diese Verzögerung ist entscheidend für die Leistung digitaler Schaltungen, da sie die maximale Schaltgeschwindigkeit und damit die Frequenz bestimmt, mit der die Schaltung betrieben werden kann. Die Verzögerung kann durch verschiedene Faktoren beeinflusst werden, einschließlich der Lastkapazität, der Größe der Transistoren und der Betriebsspannung.

Die Verzögerung tdt_dtd​ eines CMOS-Inverters kann näherungsweise mit den folgenden Gleichungen beschrieben werden:

td=CL⋅VDDIont_d = \frac{C_L \cdot V_{DD}}{I_{on}}td​=Ion​CL​⋅VDD​​

Hierbei ist CLC_LCL​ die Lastkapazität, VDDV_{DD}VDD​ die Betriebsspannung und IonI_{on}Ion​ der Einschaltstrom des Transistors. Ein wichtiges Konzept, das bei der Berechnung des Verzugs berücksichtigt werden muss, ist das RC-Verhalten, das sich aus dem Produkt der Widerstände und Kapazitäten im Schaltkreis ergibt. Je geringer der Delay, desto schneller kann die Schaltung arbeiten, was besonders in Hochgeschwindigkeitsanwendungen von Bedeutung ist.

Kosaraju-Algorithmus

Kosaraju’s Algorithm ist ein effizienter Ansatz zur Bestimmung der stark zusammenhängenden Komponenten (SCCs) eines gerichteten Graphen. Der Algorithmus besteht aus zwei Hauptschritten: Zuerst wird eine Tiefensuche (DFS) auf dem ursprünglichen Graphen durchgeführt, um die Finishzeiten der Knoten zu erfassen. Anschließend wird der Graph umgedreht (d.h. alle Kanten werden in die entgegengesetzte Richtung umgekehrt), und eine weitere Tiefensuche wird in der Reihenfolge der abnehmenden Finishzeiten durchgeführt. Die Knoten, die während dieser zweiten DFS gemeinsam besucht werden, bilden eine SCC. Der gesamte Prozess hat eine Zeitkomplexität von O(V+E)O(V + E)O(V+E), wobei VVV die Anzahl der Knoten und EEE die Anzahl der Kanten im Graphen ist.

Überlappende Generationen Modell

Das Overlapping Generations Model (OLG-Modell) ist ein fundamentales Konzept in der modernen Wirtschaftstheorie, das die Interaktionen zwischen verschiedenen Generationen in einer Volkswirtschaft untersucht. Es geht davon aus, dass Individuen in verschiedenen Lebensphasen leben und wirtschaftliche Entscheidungen treffen, die sowohl ihre eigene Generation als auch die nachfolgende Generation beeinflussen. In diesem Modell arbeiten ältere und jüngere Generationen gleichzeitig, was bedeutet, dass es Überschneidungen in den Zeiträumen gibt, in denen die Generationen aktiv sind.

Ein zentrales Merkmal des OLG-Modells ist, dass es die Dynamik von Ersparnissen und Investitionen über Zeit betrachtet. Wirtschaftliche Entscheidungen, wie das Sparen für den Ruhestand oder Investitionen in Bildung, haben langfristige Auswirkungen auf die wirtschaftliche Entwicklung. Mathematisch wird das Modell häufig durch Gleichungen dargestellt, die die optimale Konsum- und Sparstrategie der Individuen beschreiben, typischerweise in Form von Nutzenmaximierung unter Berücksichtigung von Budgetrestriktionen:

U(ct)+βU(ct+1)U(c_t) + \beta U(c_{t+1})U(ct​)+βU(ct+1​)

Hierbei steht U(ct)U(c_t)U(ct​) für den Nutzen des Konsums zum Zeitpunkt ttt, ct+1c_{t+1}ct+1​ für den Konsum der nächsten Generation und β\betaβ für den Diskontfaktor, der die

Dijkstra-Algorithmus

Der Dijkstra-Algorithmus ist ein algorithmisches Verfahren zur Bestimmung der kürzesten Pfade in einem Graphen mit nicht-negativen Gewichtungen. Er wurde von Edsger Dijkstra im Jahr 1956 entwickelt und findet insbesondere Anwendung in der Netzwerktechnik und Routenplanung. Der Algorithmus funktioniert, indem er einen Startknoten auswählt und schrittweise die kürzesten Entfernungen zu allen anderen Knoten berechnet.

Die Vorgehensweise lässt sich in mehrere Schritte unterteilen:

  1. Initialisierung: Setze die Distanz des Startknotens auf 0 und die aller anderen Knoten auf unendlich.
  2. Besuch der Knoten: Wähle den Knoten mit der kürzesten bekannten Distanz und markiere ihn als besucht.
  3. Aktualisierung der Entfernungen: Aktualisiere die Distanzen der benachbarten Knoten, wenn ein kürzerer Pfad durch den aktuellen Knoten gefunden wird.
  4. Wiederholung: Wiederhole die Schritte 2 und 3, bis alle Knoten besucht wurden oder der Zielknoten erreicht ist.

Die Komplexität des Algorithmus liegt bei O(V2)O(V^2)O(V2) für eine naive Implementierung, wobei VVV die Anzahl der Knoten im Graphen ist. Bei Verwendung von Datenstrukturen wie einem Minimum-Heap kann die Komplex