StudierendeLehrende

Lorenz Curve

Die Lorenz-Kurve ist ein grafisches Werkzeug zur Darstellung der Einkommens- oder Vermögensverteilung innerhalb einer Bevölkerung. Sie wird erstellt, indem die kumulierten Anteile der Einkommens- oder Vermögensverteilung auf der x-Achse gegen die kumulierten Anteile der Bevölkerung auf der y-Achse aufgetragen werden. Eine perfekte Gleichverteilung würde eine 45-Grad-Linie darstellen, während die Lorenz-Kurve selbst immer unterhalb dieser Linie liegt, je ungleicher die Verteilung ist. Der Gini-Koeffizient, der häufig zur Quantifizierung der Ungleichheit verwendet wird, kann direkt aus der Fläche zwischen der Lorenz-Kurve und der 45-Grad-Linie abgeleitet werden. Mathematisch wird die Lorenz-Kurve oft als
L(p)=1μ∫0pF−1(u) duL(p) = \frac{1}{\mu} \int_0^p F^{-1}(u) \, duL(p)=μ1​∫0p​F−1(u)du
definiert, wobei μ\muμ das durchschnittliche Einkommen und F−1(u)F^{-1}(u)F−1(u) die Umkehrfunktion der Einkommensverteilung ist.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Hamming-Distanz

Die Hamming-Distanz ist ein Maß für die Differenz zwischen zwei gleich langen Zeichenfolgen, typischerweise in Form von Binärzahlen oder Strings. Sie wird definiert als die Anzahl der Positionen, an denen die entsprechenden Symbole unterschiedlich sind. Zum Beispiel haben die Binärzahlen 101100110110011011001 und 100101110010111001011 eine Hamming-Distanz von 3, da sie an den Positionen 2, 4 und 6 unterschiedlich sind.

Die Hamming-Distanz wird häufig in der Informatik, insbesondere in der Codierungstheorie, verwendet, um Fehler in Datenübertragungen zu erkennen und zu korrigieren. Sie ist auch nützlich in Anwendungen wie der genetischen Forschung, um Unterschiede zwischen DNA-Sequenzen zu quantifizieren. In der Praxis gilt: Je höher die Hamming-Distanz zwischen zwei Codes, desto robuster ist das System gegen Fehler.

Karp-Rabin-Algorithmus

Der Karp-Rabin Algorithmus ist ein effizienter Suchalgorithmus zur Mustererkennung in Texten, der auf der Verwendung von Hash-Funktionen basiert. Er ermöglicht es, ein Muster in einem Text mit einer durchschnittlichen Zeitkomplexität von O(n)O(n)O(n), wobei nnn die Länge des Textes ist, zu finden. Der Algorithmus berechnet einen Hash-Wert für das Muster und für die substrings des Textes mit der gleichen Länge wie das Muster. Wenn die Hash-Werte übereinstimmen, wird eine genauere Überprüfung des Musters durchgeführt, um sicherzustellen, dass es sich tatsächlich um einen Treffer handelt.

Die Hash-Funktion wird typischerweise als polynomialer Hash definiert:

H(S)=(s0⋅bm−1+s1⋅bm−2+…+sm−1⋅b0)mod  pH(S) = (s_0 \cdot b^{m-1} + s_1 \cdot b^{m-2} + \ldots + s_{m-1} \cdot b^0) \mod pH(S)=(s0​⋅bm−1+s1​⋅bm−2+…+sm−1​⋅b0)modp

wobei SSS die Zeichen des Musters, mmm die Länge des Musters, bbb eine Basis und ppp eine Primzahl ist. Ein Vorteil des Karp-Rabin Algorithmus ist die Möglichkeit, den Hash-Wert effizient von einem substring zum nächsten zu aktualisieren, was die Berechnungen beschleunigt.

Gödel's Unvollständigkeit

Gödel’s Unvollständigkeitssätze sind zwei fundamentale Theoreme der mathematischen Logik, die von Kurt Gödel in den 1930er Jahren formuliert wurden. Der erste Satz besagt, dass in jedem konsistenten formalen System, das ausreichend mächtig ist, um die Arithmetik der natürlichen Zahlen zu beschreiben, Aussagen existieren, die weder bewiesen noch widerlegt werden können. Dies bedeutet, dass es immer wahre mathematische Aussagen gibt, die innerhalb des Systems unerweisbar sind. Der zweite Satz erweitert diese Idee und zeigt, dass ein solches System nicht seine eigene Konsistenz beweisen kann, sofern es konsistent ist. Diese Ergebnisse haben tiefgreifende Auswirkungen auf die Grundlagen der Mathematik und die Philosophie der Wissenschaft, da sie die Grenzen der formalen Systeme aufzeigen und die Vorstellung von absoluten Wahrheiten in der Mathematik in Frage stellen.

Versunkene Kosten Falle

Der Sunk Cost Fallacy (auch als "Versunkene Kosten" bekannt) beschreibt ein psychologisches Phänomen, bei dem Menschen Entscheidungen auf der Grundlage bereits getätigter Investitionen treffen, anstatt die zukünftigen Kosten und Nutzen realistisch abzuwägen. Oft halten sich Individuen oder Unternehmen an ein Projekt oder eine Entscheidung fest, weil sie bereits Zeit, Geld oder Ressourcen investiert haben, selbst wenn die aktuellen Umstände eine Fortsetzung unvernünftig erscheinen lassen.

Diese Denkweise kann zu suboptimalen Entscheidungen führen, da die versunkenen Kosten, die nicht mehr zurückgeholt werden können, nicht in die Entscheidungsfindung einfließen sollten. Stattdessen sollte der Fokus auf den marginalen Kosten und Nutzen zukünftiger Entscheidungen gelegt werden. Ein typisches Beispiel ist, wenn jemand ein teures Ticket für ein Konzert gekauft hat, sich jedoch am Konzerttag unwohl fühlt, aber trotzdem geht, um die bereits getätigte Ausgabe nicht "zu verschwenden". In solchen Fällen ist es wichtig, sich bewusst zu machen, dass die bereits getätigte Ausgabe irrelevant ist für die Entscheidung, ob man das Konzert tatsächlich besuchen sollte.

Pipelining-CPU

Pipelining ist eine Technik in der CPU-Architektur, die die Effizienz der Datenverarbeitung erhöht, indem mehrere Befehle gleichzeitig in verschiedenen Phasen der Ausführung bearbeitet werden. Anstatt einen Befehl vollständig auszuführen, bevor der nächste beginnt, wird der Prozess in mehrere Schritte unterteilt, wie z.B. Holen, Dekodieren, Ausführen, Zugriff auf den Speicher und Schreiben. Jeder dieser Schritte wird in einem separaten Pipeline-Stadium durchgeführt, sodass, während ein Befehl im ersten Stadium verarbeitet wird, ein anderer bereits im zweiten Stadium sein kann. Dadurch kann die CPU mehrere Befehle gleichzeitig bearbeiten und die Gesamtdurchsatzrate erhöhen. Mathematisch lässt sich die Verbesserung der Effizienz oft mit der Formel für den Durchsatz Throughput=Anzahl der BefehleZeit\text{Throughput} = \frac{\text{Anzahl der Befehle}}{\text{Zeit}}Throughput=ZeitAnzahl der Befehle​ darstellen, wobei die Zeit durch die parallele Verarbeitung erheblich verkürzt wird. Ein typisches Problem beim Pipelining sind Datenabhängigkeiten, die dazu führen können, dass nachfolgende Befehle auf Daten warten müssen, was die Effizienz beeinträchtigen kann.

Dunkle Materie

Dunkle Materie ist eine geheimnisvolle Substanz, die etwa 27 % der gesamten Materie im Universum ausmacht, jedoch nicht direkt beobachtet werden kann, da sie keine elektromagnetische Strahlung emittiert oder reflektiert. Ihre Existenz wird durch ihre gravitativen Effekte auf sichtbare Materie, wie Sterne und Galaxien, abgeleitet. Zum Beispiel zeigen Beobachtungen, dass sich Galaxien in Clustern viel schneller bewegen, als es mit der sichtbaren Materie allein erklärt werden kann. Um diese Diskrepanz zu beheben, postulieren Wissenschaftler die Existenz von dunkler Materie, die zusätzlich zur gravitativen Anziehung beiträgt.

Die genaue Zusammensetzung und Natur der dunklen Materie bleibt jedoch unbekannt, und verschiedene Theorien, wie die Existenz von WIMPs (Weakly Interacting Massive Particles) oder Axionen, werden erforscht. Das Studium der dunklen Materie ist entscheidend für unser Verständnis der Struktur und Evolution des Universums.