StudierendeLehrende

Bretton Woods

Das Bretton-Woods-System war ein internationales Währungs- und Finanzsystem, das 1944 während einer Konferenz in Bretton Woods, New Hampshire, ins Leben gerufen wurde. Ziel war es, eine stabile wirtschaftliche Ordnung nach dem Zweiten Weltkrieg zu schaffen und die Grundlage für den internationalen Handel zu legen. Das System führte zur Schaffung des Internationalen Währungsfonds (IWF) und der Weltbank, um die wirtschaftliche Zusammenarbeit und Stabilität zu fördern. Eine zentrale Idee des Bretton-Woods-Systems war die Bindung der Währungen an den US-Dollar, der seinerseits an Gold gebunden war, was zu einem stabilen Wechselkursregime führte. Dieses System blieb bis in die frühen 1970er Jahre bestehen, als es aufgrund von wirtschaftlichen Herausforderungen und der Unfähigkeit, die Dollar-Gold-Bindung aufrechtzuerhalten, zusammenbrach.

Weitere verwandte Begriffe

contact us

Zeit zu lernen

Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.

logoVerwandle jedes Dokument in ein interaktives Lernerlebnis.
Antong Yin

Antong Yin

Co-Founder & CEO

Jan Tiegges

Jan Tiegges

Co-Founder & CTO

Paul Herman

Paul Herman

Co-Founder & CPO

© 2025 acemate UG (haftungsbeschränkt)  |   Nutzungsbedingungen  |   Datenschutzerklärung  |   Impressum  |   Jobs   |  
iconlogo
Einloggen

Rekombinante Proteinexpression

Die rekombinante Proteinexpression ist ein biotechnologischer Prozess, bei dem Gene, die für bestimmte Proteine kodieren, in geeignete Wirtszellen eingeführt werden, um diese Proteine in großen Mengen zu produzieren. Diese Methode nutzt häufig Bakterien, Hefen oder tierische Zellen als Wirte, wobei das genmanipulierte Plasmid, das das Zielgen enthält, in die Zellen eingebracht wird. Nach der Transformation der Wirtszellen erfolgt die Expression des Proteins, oft unter der Kontrolle eines starken Promotors, der die Transkription und Translation des Zielproteins fördert. Nach der Expression kann das Protein durch verschiedene Verfahren, wie z.B. Chromatographie, gereinigt werden, um ein hochreines Produkt zu erhalten. Rekombinante Proteine finden breite Anwendung in der Medizin, Forschung und Industrie, beispielsweise in der Entwicklung von Impfstoffen, Enzymen oder therapeutischen Proteinen.

Arithmetische Codierung

Arithmetic Coding ist ein effizientes Verfahren zur Datenkompression, das im Gegensatz zu traditionellen Methoden wie Huffman-Codierung arbeitet. Anstatt einzelne Symbole in Codes umzuwandeln, kodiert Arithmetic Coding eine gesamte Nachricht als eine einzelne Zahl in einem Intervall zwischen 0 und 1. Der Algorithmus nutzt die Wahrscheinlichkeitsverteilung der Symbole, um das Intervall fortlaufend zu verfeinern:

  1. Jedes Symbol wird einem bestimmten Teilintervall zugeordnet, das proportional zu seiner Wahrscheinlichkeit ist.
  2. Bei jedem neuen Symbol wird das aktuelle Intervall entsprechend dem Bereich, der diesem Symbol zugeordnet ist, angepasst.
  3. Am Ende der Kodierung wird eine Zahl innerhalb des letzten Intervalls gewählt, die die gesamte Nachricht repräsentiert.

Ein Vorteil von Arithmetic Coding ist, dass es theoretisch eine bessere Kompression als die Huffman-Codierung bietet, insbesondere bei langen Nachrichten mit einer bekannten Wahrscheinlichkeitsverteilung der Symbole.

Schwache Wechselwirkung Paritätsverletzung

Die schwache Wechselwirkung, eine der vier fundamentalen Kräfte der Natur, zeigt ein faszinierendes Phänomen namens Paritätsverletzung. Parität bezieht sich auf die Symmetrie der physikalischen Gesetze unter einer Spiegelumkehr. In der klassischen Physik wird angenommen, dass die meisten Prozesse, die in der Natur stattfinden, unter einer solchen Spiegelung unverändert bleiben sollten. Allerdings stellte man fest, dass bei Prozessen, die von der schwachen Wechselwirkung dominiert werden, diese Symmetrie nicht gilt.

Ein berühmtes Experiment, das dieses Phänomen demonstrierte, wurde in den 1950er Jahren von Chien-Shiung Wu durchgeführt, als sie die Beta-Zerfallsprozesse von Kobalt-60 untersuchte. Die Ergebnisse zeigten, dass die Verteilung der emittierten Elektronen nicht gleichmäßig war, was darauf hindeutet, dass die schwache Wechselwirkung nicht die gleiche Symmetrie wie die starke oder elektromagnetische Wechselwirkung aufweist. Dies führte zu einer grundlegenden Neubewertung der Symmetrieprinzipien in der Teilchenphysik und hatte bedeutende Auswirkungen auf die Entwicklung des Standardmodells der Teilchenphysik.

Gehirn-Maschine-Schnittstelle

Ein Brain-Machine Interface (BMI), auch bekannt als Gehirn-Computer-Schnittstelle, ist ein technologisches System, das es ermöglicht, direkt zwischen dem menschlichen Gehirn und externen Geräten zu kommunizieren. Diese Schnittstellen erfassen neuronale Aktivitäten, typischerweise durch Elektroden, die an der Schädeloberfläche oder direkt im Gehirn platziert sind. Die gesammelten Daten werden dann in digitale Signale umgewandelt, die von Maschinen interpretiert werden können, um bestimmte Aktionen auszuführen, wie zum Beispiel das Steuern von Prothesen oder Computern. BMIs finden Anwendung in verschiedenen Bereichen, einschließlich der Medizin zur Unterstützung von Menschen mit motorischen Einschränkungen und in der Forschung, um das Verständnis der neuronalen Prozesse zu vertiefen. Die Entwicklung dieser Technologie könnte in Zukunft nicht nur die Lebensqualität von Menschen mit Behinderungen verbessern, sondern auch neue Möglichkeiten für die Mensch-Maschine-Interaktion schaffen.

Pipelining-CPU

Pipelining ist eine Technik in der CPU-Architektur, die die Effizienz der Datenverarbeitung erhöht, indem mehrere Befehle gleichzeitig in verschiedenen Phasen der Ausführung bearbeitet werden. Anstatt einen Befehl vollständig auszuführen, bevor der nächste beginnt, wird der Prozess in mehrere Schritte unterteilt, wie z.B. Holen, Dekodieren, Ausführen, Zugriff auf den Speicher und Schreiben. Jeder dieser Schritte wird in einem separaten Pipeline-Stadium durchgeführt, sodass, während ein Befehl im ersten Stadium verarbeitet wird, ein anderer bereits im zweiten Stadium sein kann. Dadurch kann die CPU mehrere Befehle gleichzeitig bearbeiten und die Gesamtdurchsatzrate erhöhen. Mathematisch lässt sich die Verbesserung der Effizienz oft mit der Formel für den Durchsatz Throughput=Anzahl der BefehleZeit\text{Throughput} = \frac{\text{Anzahl der Befehle}}{\text{Zeit}}Throughput=ZeitAnzahl der Befehle​ darstellen, wobei die Zeit durch die parallele Verarbeitung erheblich verkürzt wird. Ein typisches Problem beim Pipelining sind Datenabhängigkeiten, die dazu führen können, dass nachfolgende Befehle auf Daten warten müssen, was die Effizienz beeinträchtigen kann.

Hawking-Verdampfung

Die Hawking-Evaporations-Theorie, die von dem Physiker Stephen Hawking in den 1970er Jahren formuliert wurde, beschreibt einen Prozess, durch den schwarze Löcher Energie und Masse verlieren können. Dieser Prozess entsteht durch Quantenfluktuationen in der Nähe des Ereignishorizonts eines schwarzen Lochs. Dabei entstehen Paare von Teilchen und Antiteilchen, die kurzzeitig aus dem Nichts erscheinen können. Wenn eines dieser Teilchen ins schwarze Loch fällt, kann das andere entkommen, was dazu führt, dass das schwarze Loch Energie verliert.

Dies wird oft als eine Art „Verdampfung“ beschrieben, da die Masse des schwarzen Lochs im Laufe der Zeit abnimmt. Der Verlust an Masse führt zur Langsamkeit der Verdampfung, wobei kleine schwarze Löcher schneller evaporieren als große. Letztlich könnte ein schwarzes Loch durch diesen Prozess vollständig verschwinden, was gravierende Implikationen für unser Verständnis der Thermodynamik und der Informationsnatur im Universum hat.