StudierendeLehrende

Von Neumann Utility

Die Von Neumann Utility-Theorie, benannt nach dem Mathematiker John von Neumann, ist ein fundamentales Konzept in der Spieltheorie und der Entscheidungstheorie. Sie besagt, dass der Nutzen eines Individuums aus einer bestimmten Handlung oder Entscheidung in einem unsicheren Umfeld als eine Funktion der möglichen Ergebnisse und deren Wahrscheinlichkeiten dargestellt werden kann. Der Nutzen U(x)U(x)U(x) eines Ergebnisses xxx wird dabei häufig als eine reelle Zahl interpretiert, die den subjektiven Wert oder die Zufriedenheit des Individuums widerspiegelt.

In der einfachsten Form können wir den erwarteten Nutzen EUEUEU einer Entscheidung als gewichtete Summe der Nutzenwerte der möglichen Ergebnisse formulieren:

EU=∑ipiU(xi)EU = \sum_{i} p_i U(x_i)EU=i∑​pi​U(xi​)

Hierbei ist pip_ipi​ die Wahrscheinlichkeit des Ergebnisses xix_ixi​. Die Theorie legt nahe, dass rationale Entscheidungsträger ihre Entscheidungen so treffen, dass sie ihren erwarteten Nutzen maximieren. Dieses Konzept hat weitreichende Anwendungen in Wirtschaft, Finanzen und anderen Disziplinen, wo Unsicherheit und strategische Interaktionen eine Rolle spielen.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Floyd-Warshall-Kürzeste-Pfade

Der Floyd-Warshall-Algorithmus ist ein effizientes Verfahren zur Bestimmung der kürzesten Pfade zwischen allen Paaren von Knoten in einem gewichteten Graphen. Er basiert auf der Idee, dass der kürzeste Pfad zwischen zwei Knoten entweder direkt oder über einen dritten Knoten führt. Der Algorithmus nutzt eine dynamische Programmierungstechnik und aktualisiert eine Distanzmatrix, die alle kürzesten Distanzen zwischen Knoten speichert.

Die Grundidee ist, die Matrix iterativ zu aktualisieren, indem man überprüft, ob der Pfad von Knoten iii zu Knoten jjj über Knoten kkk kürzer ist als der bisher bekannte Pfad. Dies wird durch die folgende Beziehung beschrieben:

d[i][j]=min⁡(d[i][j],d[i][k]+d[k][j])d[i][j] = \min(d[i][j], d[i][k] + d[k][j])d[i][j]=min(d[i][j],d[i][k]+d[k][j])

Hierbei ist d[i][j]d[i][j]d[i][j] die aktuelle kürzeste Distanz zwischen den Knoten iii und jjj. Der Algorithmus hat eine Zeitkomplexität von O(n3)O(n^3)O(n3), wobei nnn die Anzahl der Knoten im Graphen ist, und eignet sich besonders gut für dichte Graphen oder wenn man alle kürzesten Wege auf einmal berechnen möchte.

Riemann-Lebesgue Lemma

Das Riemann-Lebesgue Lemma ist ein wichtiges Resultat in der Analysis, insbesondere in der Fourier-Analyse. Es besagt, dass die Fourier-Koeffizienten einer integrierbaren Funktion fff gegen null konvergieren, wenn die Frequenz nnn gegen unendlich geht. Mathematisch ausgedrückt bedeutet dies, dass:

lim⁡n→∞∫abf(x)e−inx dx=0\lim_{n \to \infty} \int_{a}^{b} f(x) e^{-i n x} \, dx = 0n→∞lim​∫ab​f(x)e−inxdx=0

für jede integrierbare Funktion fff auf dem Intervall [a,b][a, b][a,b]. Dies zeigt, dass hochfrequente Schwingungen die Werte der Funktion im Durchschnitt "auslöschen". Das Lemma ist nicht nur für die Theorie der Fourier-Reihen von Bedeutung, sondern hat auch Anwendungen in der Signalverarbeitung und der Lösung von Differentialgleichungen. Es verdeutlicht, dass glatte Funktionen im Frequenzbereich gut verhalten, während störende Punkte oder Unstetigkeiten in der Funktion keine signifikanten Beiträge zu den hohen Frequenzen liefern.

Backstepping Control

Backstepping Control ist ein systematisches Verfahren zur Regelung nichtlinearer dynamischer Systeme, das auf der Idee basiert, ein komplexes System schrittweise in einfachere Teilsysteme zu zerlegen. Durch die schrittweise Entwicklung der Regelung wird eine hierarchische Struktur geschaffen, die es ermöglicht, die Stabilität und das Verhalten des gesamten Systems zu analysieren. Der Prozess beginnt mit der Definition eines stabilen Zielzustands und führt dann durch iterative Rückwärtsschritte zu den Eingangsgrößen des Systems.

Ein zentrales Konzept ist die Lyapunov-Stabilität, die sicherstellt, dass das gesamte System stabil bleibt, während die Teilsysteme nacheinander behandelt werden. Mathematisch wird oft eine Lyapunov-Funktion verwendet, um die Stabilität jeder Ebene zu zeigen. Diese Methode ist besonders nützlich in der Robotik, der Luft- und Raumfahrt sowie in anderen Bereichen, in denen komplexe nichtlineare Systeme gesteuert werden müssen.

Transkriptom-Daten-Clustering

Transcriptomic Data Clustering bezieht sich auf die Gruppierung von Genexpressionsdaten, die aus Transkriptomanalysen stammen. Bei dieser Analyse werden die RNA-Moleküle in einer Zelle gemessen, um zu verstehen, welche Gene aktiv sind und in welchem Maße. Clustering-Techniken wie k-Means, hierarchisches Clustering oder DBSCAN werden verwendet, um Ähnlichkeiten in den Expressionsmustern zu identifizieren. Diese Cluster können dann dazu beitragen, biologisch relevante Gruppen von Genen oder Proben zu entdecken, die in ähnlichen biologischen Prozessen oder Krankheitszuständen involviert sind. Eine häufige Herausforderung besteht darin, mit der hohen dimensionalen Natur der Daten umzugehen, die oft durch die Verwendung von Dimensionreduktionsmethoden wie PCA oder t-SNE adressiert wird. Letztlich trägt das Clustering dazu bei, komplexe biologische Informationen zu entschlüsseln und potenzielle therapeutische Ziele zu identifizieren.

UCB-Algorithmus in Mehrarmigen Banditen

Der UCB-Algorithmus (Upper Confidence Bound) ist eine effektive Strategie zur Lösung des Multi-Armed Bandit-Problems, das in der Entscheidungsfindung und im maschinellen Lernen häufig vorkommt. Bei diesem Problem steht ein Agent vor der Wahl, aus mehreren Optionen (Armen) zu wählen, wobei jede Option eine unbekannte Belohnungsverteilung hat. Der UCB-Algorithmus verfolgt einen explorativen Ansatz, indem er sowohl die mittlere Belohnung jeder Option als auch die Unsicherheit über diese Schätzungen berücksichtigt.

Die zentrale Idee des UCB-Algorithmus besteht darin, eine obere Schranke für die geschätzte Belohnung jeder Option zu berechnen, die sowohl die bisherige Leistung als auch die Anzahl der Male, die die Option gewählt wurde, einbezieht. Diese Schranke wird wie folgt definiert:

UCBt(a)=X^t(a)+2ln⁡tNt(a)UCB_t(a) = \hat{X}_t(a) + \sqrt{\frac{2 \ln t}{N_t(a)}}UCBt​(a)=X^t​(a)+Nt​(a)2lnt​​

Hierbei ist X^t(a)\hat{X}_t(a)X^t​(a) die geschätzte durchschnittliche Belohnung der Option aaa zum Zeitpunkt ttt, Nt(a)N_t(a)Nt​(a) die Anzahl der Ziehungen von Option aaa, und ln⁡t\ln tlnt der natürliche Logarithmus von ttt. Der Agent wählt dann

Schrödinger-Gleichung

Die Schrödinger-Gleichung ist eine fundamentale Gleichung in der Quantenmechanik, die das Verhalten von quantenmechanischen Systemen beschreibt. Sie stellt eine Beziehung zwischen der Wellenfunktion eines Systems und seiner Energie her. Die allgemeine Form der zeitabhängigen Schrödinger-Gleichung lautet:

iℏ∂Ψ(x,t)∂t=H^Ψ(x,t)i\hbar \frac{\partial \Psi(x,t)}{\partial t} = \hat{H} \Psi(x,t)iℏ∂t∂Ψ(x,t)​=H^Ψ(x,t)

Hierbei ist Ψ(x,t)\Psi(x,t)Ψ(x,t) die Wellenfunktion, H^\hat{H}H^ der Hamilton-Operator, der die totale Energie des Systems repräsentiert, und ℏ\hbarℏ das reduzierte Plancksche Wirkungsquantum. Diese Gleichung ist entscheidend, um die Wahrscheinlichkeit zu bestimmen, ein Teilchen an einem bestimmten Ort und zu einer bestimmten Zeit zu finden, was durch das Quadrat des Betrags der Wellenfunktion ∣Ψ(x,t)∣2|\Psi(x,t)|^2∣Ψ(x,t)∣2 gegeben ist. Die Schrödinger-Gleichung ermöglicht es Physikern, das Verhalten von Elektronen in Atomen, Molekülen und Festkörpern zu modellieren und zu verstehen.