StudierendeLehrende

Tandem Repeat Expansion

Tandem Repeat Expansion bezieht sich auf das Phänomen, bei dem sich kurze, wiederholte DNA-Sequenzen in einem Genom vergrößern. Diese Wiederholungen, auch als Tandem-Wiederholungen bekannt, können aus zwei oder mehr identischen Einheiten bestehen, die direkt hintereinander angeordnet sind. Bei der Expansion werden zusätzliche Wiederholungseinheiten in diese Region eingefügt, was zu einer zunehmenden Anzahl von Wiederholungen führt. Dies kann zu genetischen Störungen führen, da die veränderte Sequenz die normale Funktion des Gens beeinträchtigen kann. Beispiele für Erkrankungen, die mit Tandem Repeat Expansion assoziiert sind, sind Huntington-Krankheit und Spinozerebelläre Ataxie, wo die Anzahl der Wiederholungen einen direkten Einfluss auf den Schweregrad der Symptome hat.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Regge-Theorie

Die Regge-Theorie ist ein Konzept in der theoretischen Physik, das die Wechselwirkungen von Teilchen in der Hochenergie-Physik beschreibt. Sie wurde in den 1950er Jahren von Tullio Regge entwickelt und basiert auf dem Ansatz, dass die Streuamplituden von Teilchen nicht nur von den Energie- und Impulsübertragungen, sondern auch von den Trajektorien abhängen, die die Teilchen im komplexen Impulsraum verfolgen. Diese Trajektorien, bekannt als Regge-Trajektorien, sind Kurven, die die Beziehung zwischen dem Spin JJJ eines Teilchens und dem Quadrat des Impulses ttt beschreiben. Mathematisch wird dies oft durch den Ausdruck J(t)=J0+α′tJ(t) = J_0 + \alpha' tJ(t)=J0​+α′t dargestellt, wobei J0J_0J0​ der Spin des Teilchens bei t=0t = 0t=0 ist und α′\alpha'α′ die Steigung der Trajektorie im (J,t)(J,t)(J,t)-Diagramm beschreibt. Regge-Theorie hat nicht nur zur Erklärung von Hadronen-Streuung beigetragen, sondern auch zur Entwicklung des Stringtheorie-Ansatzes, indem sie eine tiefere Verbindung zwischen der Geometrie des Raums und den Eigenschaften von Teilchen aufzeigt.

Referenzpunkte der Prospect-Theorie

Die Prospect Theory wurde von Daniel Kahneman und Amos Tversky entwickelt und beschreibt, wie Menschen Entscheidungen unter Risiko und Unsicherheit treffen. Ein zentrales Konzept dieser Theorie sind die Referenzpunkte, die als Ausgangsbasis für die Bewertung von Gewinnen und Verlusten dienen. Menschen neigen dazu, ihren Nutzen nicht auf absolute Ergebnisse zu beziehen, sondern auf die Abweichung von einem bestimmten Referenzpunkt, der oft der Status quo ist.

So empfinden Individuen Gewinne als weniger wertvoll, wenn sie über diesem Referenzpunkt liegen, während Verluste unter diesem Punkt als schmerzhafter empfunden werden. Dies führt zu einem Verhalten, das als Verlustaversion bezeichnet wird, was bedeutet, dass Verluste etwa doppelt so stark gewichtet werden wie gleich große Gewinne. Mathematisch lässt sich die Nutzenfunktion der Prospect Theory oft durch eine S-förmige Kurve darstellen, die sowohl die Asymmetrie zwischen Gewinnen und Verlusten als auch die abnehmende Sensitivität für extreme Werte verdeutlicht.

Laplace-Transformation

Die Laplace-Transformation ist ein wichtiges mathematisches Werkzeug, das in der Ingenieurwissenschaft und Mathematik verwendet wird, um Differentialgleichungen zu lösen und Systeme zu analysieren. Sie wandelt eine Funktion f(t)f(t)f(t), die von der Zeit ttt abhängt, in eine Funktion F(s)F(s)F(s), die von einer komplexen Frequenz sss abhängt, um. Die allgemeine Form der Laplace-Transformation ist gegeben durch die Gleichung:

F(s)=∫0∞e−stf(t) dtF(s) = \int_0^{\infty} e^{-st} f(t) \, dtF(s)=∫0∞​e−stf(t)dt

Hierbei ist e−ste^{-st}e−st der Dämpfungsfaktor, der hilft, das Verhalten der Funktion im Zeitbereich zu steuern. Die Transformation ist besonders nützlich, da sie die Lösung von Differentialgleichungen in algebraische Gleichungen umwandelt, was die Berechnungen erheblich vereinfacht. Die Rücktransformation, die als Inverse Laplace-Transformation bekannt ist, ermöglicht es, die ursprüngliche Funktion f(t)f(t)f(t) aus F(s)F(s)F(s) zurückzugewinnen.

Pauli-Ausschlussprinzip-Quantenzahlen

Die Pauli-Ausschlussregel besagt, dass zwei identische Fermionen, wie Elektronen, nicht denselben Quantenzustand einnehmen können. Diese Regel ist entscheidend für das Verständnis der Elektronenkonfiguration in Atomen und erklärt, warum sich Elektronen in verschiedenen Orbitalen anordnen. Um diese Regel zu quantifizieren, werden vier Quantenzahlen verwendet:

  1. Hauptquantenzahl (nnn): Gibt das Energieniveau des Elektrons an.
  2. Nebenquantenzahl (lll): Bestimmt die Form des Orbitals (z.B. sphärisch, hantelförmig).
  3. Magnetquantenzahl (mlm_lml​): Gibt die Orientierung des Orbitals im Raum an.
  4. Spinquantenzahl (msm_sms​): Beschreibt die Spinrichtung des Elektrons und kann den Wert +12+\frac{1}{2}+21​ oder −12-\frac{1}{2}−21​ annehmen.

Da zwei Elektronen im selben Atom nicht identisch sein können, unterscheidet sich mindestens eine ihrer Quantenzahlen. Dies führt zu einer klaren Struktur der Elektronenschalen und hat weitreichende Implikationen für die chemischen Eigenschaften der Elemente.

Hopcroft-Karp Matching

Das Hopcroft-Karp-Algorithmus ist ein effizienter Algorithmus zur Berechnung eines maximalen Matchings in bipartiten Graphen. Ein bipartiter Graph besteht aus zwei Mengen von Knoten, wobei Kanten nur zwischen Knoten aus verschiedenen Mengen existieren. Der Algorithmus kombiniert zwei Hauptphasen: die Suche nach augmentierenden Pfaden und die Aktualisierung des Matchings. Durch eine geschickte Anwendung von Breadth-First Search (BFS) und Depth-First Search (DFS) gelingt es, die Anzahl der benötigten Iterationen erheblich zu reduzieren, wodurch die Laufzeit auf O(EV)O(E \sqrt{V})O(EV​) sinkt, wobei EEE die Anzahl der Kanten und VVV die Anzahl der Knoten im Graphen ist. Die Idee hinter dem Algorithmus ist, dass durch das Finden und Ausnutzen von augmentierenden Pfaden das Matching schrittweise vergrößert wird, bis kein weiterer augmentierender Pfad mehr gefunden werden kann.

Persistenter Segmentbaum

Ein Persistent Segment Tree ist eine Datenstruktur, die es ermöglicht, den Zustand eines Segmentbaums über verschiedene Versionen hinweg beizubehalten. Anders als ein gewöhnlicher Segmentbaum, der nur den aktuellen Zustand speichert, ermöglicht der persistente Segmentbaum, frühere Versionen des Baums nach Änderungen (z.B. Einfügungen oder Löschungen) wieder abzurufen. Dies geschieht durch die Verwendung von immutable (unveränderlichen) Knoten, was bedeutet, dass bei jeder Modifikation ein neuer Knoten erstellt wird, während die alten Knoten weiterhin verfügbar bleiben.

Die Zeitkomplexität für Abfragen und Modifikationen beträgt im Allgemeinen O(log⁡n)O(\log n)O(logn), und die Speicherkosten wachsen linear mit der Anzahl der Modifikationen, da jede Version des Baums in der Regel O(log⁡n)O(\log n)O(logn) Knoten benötigt. Diese Eigenschaften machen den persistenten Segmentbaum ideal für Anwendungen in der funktionalen Programmierung oder bei Problemen, bei denen frühere Zustände benötigt werden, wie beispielsweise in der Versionierung von Daten oder bei der Analyse von Zeitreihen.