Skip to main content
main-content

Über dieses Buch

Das bewährte Standardwerk beschreibt und erläutert alle analytischen Methoden, die heute in der Biochemie und Molekularbiologie eingesetzt werden, von der Probenvorbereitung bis zu modernsten Analysetechniken, von der Nucleotidanalytik bis zum Next Generation Sequencing, von der Analyse spezieller Stoffgruppen bis zur Systembiologie. Es begleitet Studierende der biologischen Disziplinen durch das gesamte Fächerspektrum und gibt ihnen das methodische Rüstzeug, den Erkenntnisgewinn in den Lebenswissenschaften zu durchdringen. Auch dem aktiv forschenden Wissenschaftler erläutert es die komplexen aktuellen Entwicklungen der bioanalytischen Methoden. In der Neuauflage sind fast alle Kapitel komplett überarbeitet und auf den neuesten Stand der Technik gebracht worden. Auch gänzlich neue Themen sind in der Neuauflage aufgenommen worden, wie beispielsweise die modernsten massenspektrometrischen Methoden für die OMICs-Techniken, CRISPR/Cas oder die Organ-on-a-Chip Technologie. Es berücksichtigt zahlreiche methodische Weiterentwicklungen und greift auch hochaktuelle Trends in der Forschung auf. Großer Wert wurde auf eine kritische, praxisbezogene Darstellung der Methoden und auf eine Vernetzung der verschiedenen Kapitel untereinander gelegt. Didaktisch überarbeitete Vierfarbabbildungen illustrieren durchgängig die beschriebenen Techniken. Damit wird die Neuauflage dieses kompetenten und informationsreichen Lehr- und Handbuches wieder all jenen, die sich in der Vielfalt der biologisch-chemischen Labormethoden zurechtfinden müssen, als zuverlässiger Wegweiser dienen. Vom Einsteiger bis zum erfahrenen Experten wird jeder Leser wertvolle Informationen finden.

Stimmen zum Buch

Das vielgelobte Buch …

Das Buch ist der Klassiker der Bioanalytik. Alles, was ein Masterstudent über dieses Gebiet wissen muss, ist hier gründlich erklärt. Isabelle Breloy Hochschule Bonn-Rhein-SiegKann vorbehaltlos für einen weiten Kreis interessierter Leser (vom Studenten bis zum Lernenden, vom Forschenden bis zum Industrieanwender) sehr empfohlen werden. Angewandte ChemieEin Lehrbuch, das ... im deutschsprachigen Raum seinesgleichen sucht. ErnährungsforschungIn seinem Umfang einzigartig, komplette Methodenübersicht, topaktuell. Prof. Dr. Peter Fischer, Technische Fachhochschule Berlin

... liegt nun in der vierten, aktualisierten und erweiterten Neuauflage vor.

Inhaltsverzeichnis

Frontmatter

1. Bioanalytik – eine eigenständige Wissenschaft

Im Jahr 1975 weckten O’Farrell und Klose mit zwei Publikationen das Interesse der Biochemiker: In ihren Arbeiten zeigten sie spektakuläre Bilder von Tausenden voneinander getrennten Proteinen, die ersten 2D-Elektropherogramme. Eine Vision entstand damals bei einigen Proteinbiochemikern: Über die Analyse dieser Proteinmuster komplexe Funktionszusammenhänge aufzuzeigen und damit letztendlich Vorgänge in der Zelle aus den Proteindaten verstehen zu können. Dazu allerdings mussten die aufgetrennten Proteine charakterisiert und analysiert werden – eine Aufgabe, mit der die Analytik damals hoffnungslos überfordert war. Erst mussten völlig neue Methoden entwickelt und bestehende drastisch verbessert, die Synergieeffekte von Proteinchemie, Molekularbiologie, Genomanalyse und Datenverarbeitung erkannt und genutzt werden, ehe wir heute mit der Proteomanalyse an der Schwelle zur Realisierung dieser damals so utopisch scheinenden Vision stehen.

Jens Kurreck, Friedrich Lottspeich, Joachim W. Engels

Proteinanalytik

Frontmatter

2. Proteinreinigung

Die Untersuchung von Struktur und Funktion von Proteinen beschäftigt die Wissenschaft schon seit über zweihundert Jahren. 1777 fasste der französische Chemiker Pierre J. Macquer unter dem Begriff Albumine alle Substanzen zusammen, die das eigenartige Phänomen zeigten, beim Erwärmen vom flüssigen in festen Zustand überzugehen. Zu diesen Substanzen gehörten das Hühnereiweiß, das Casein und der Blutbestandteil Globulin. Schon 1787, etwa zur Zeit der französischen Revolution, wurde über die Reinigung von gerinnbaren, eiweißartigen Substanzen aus Pflanzen berichtet. Im frühen neunzehnten Jahrhundert wurden viele Proteine wie Albumin, Fibrin oder Casein gereinigt und analysiert, und es zeigte sich bald, dass diese Verbindungen erheblich komplizierter aufgebaut waren als die damals bekannten anderen organischen Moleküle. Das Wort Protein wurde wahrscheinlich von dem schwedischen Chemiker Jöns J. von Berzelius um 1838 geprägt und dann von dem Holländer Gerardus J. Mulder zusammen mit einer chemischen Formel publiziert, die Mulder damals als allgemeingültig für eiweißartige Stoffe ansah. Homogenität und Reinheit dieser damals gereinigten Proteine entsprachen natürlich nicht den heutigen Ansprüchen, sie zeigten jedoch, dass sich einzelne Proteine durchaus voneinander unterscheiden lassen. Die Reinigung konnte damals nur gelingen, weil man einfache Schritte nutzen konnte: die Extraktion zur Anreicherung, die Ansäuerung zur Ausfällung und die Kristallisation beim einfachen Stehenlassen einer Lösung. Schon 1889 erhielt Hofmeister das Hühneralbumin in kristalliner Form. Obwohl Sumner 1926 enzymatisch aktive Urease kristallisieren konnte, blieben doch bis zur Mitte des zwanzigsten Jahrhunderts die Struktur und der Aufbau von Proteinen im Dunkeln. Erst die Entwicklung von leistungsfähigen Reinigungsmethoden, mit denen sich einzelne Proteine aus komplexen Gemischen isolieren lassen, begleitet von einer Revolution der Techniken zur Analyse der aufgetrennten Proteine, ermöglichte unser heutiges Verständnis der Proteinstrukturen.

Friedrich Lottspeich

3. Proteinbestimmungen

In biochemischen und biologischen Labors stellt sich häufig die Aufgabe, den Proteingehalt von wässrigen Lösungen zu ermitteln. Man muss daher die Prinzipien, vor allem aber auch die Vor- und Nachteile der wichtigsten Methoden kennen und sich über ihre – methodisch bedingten – Ungenauigkeit und Fehlerquellen im Klaren sein. Objektive Methoden zur Quantifizierung von Proteinen sind die quantitative Aminosäureanalyse oder die Gewichtsbestimmung des reinen Proteins als Feststoff. Letzteres ist nach Probenaufarbeitung durch Vakuumgefriertrocknung oder durch Hitzetrocknung bei 104–106 °C für 4–6 h möglich. Beide Methoden sind jedoch für die routinemäßige Ermittlung des Proteingehalts einer Lösung zu zeit- und arbeitsaufwendig. Für viele Fragestellungen ist es auch völlig ausreichend, den ungefähren Gehalt, verglichen mit einem definierten Standard wie beispielsweise Serumalbumin, zu kennen. Dies gilt z. B. für Proteinbestimmungen bei der Proteinaufreinigung oder bei der Immobilisierung von Proteinen.

Lutz Fischer

4. Enzymatische Aktivitätstests

Enzyme sind äußerst wirkungsvolle Katalysatoren. Sie steigern die Geschwindigkeit chemischer Reaktionen bis zu 1010-fach, eine Grundvoraussetzung für das Funktionieren jeder lebenden Zelle, in der eine Vielzahl verschiedener Reaktionen simultan und exakt koordiniert nebeneinander abläuft. Lebensvorgänge können nicht von unkatalysierten Reaktionsprozessen, die oft Tage und Wochen dauern, abhängen. Ein zweiter essenzieller Vorteil von Enzymen ist, dass katalysierte Reaktionen, im Gegensatz zu spontanen chemischen Reaktionen, durch Veränderung der Menge und der Effizienz des Katalysators exakt zu steuern sind, eine weitere Grundvoraussetzung des Lebens.

Hans Bisswanger

5. Mikrokalorimetrie

Die Kalorimetrie ist eine Methode zur Bestimmung von Wärmemengen, die zwischen einem geschlossenen System und seiner Umgebung ausgetauscht werden. Sie ist eine sehr alte Methode, die auf erste Beobachtungen in der zweiten Hälfte des 18. Jahrhunderts zurückgeht, dass z. B. Eis beim Schmelzen Wärme aufnimmt, ohne dabei seine Temperatur zu ändern. Damals wurde der Begriff der „latenten“ Wärme geprägt (Joseph Black, Edinburgh). Während die meisten kalorimetrischen Messungen das Ziel hatten, chemische und physikalische Prozesse zu verstehen und die dabei auftretenden Wärmemengen zu bestimmen, gab es auch schon sehr früh biologische Anwendungen. Lavoisier konstruierte um 1780 ein Eiskalorimeter, mit dem er den Metabolismus eines Meerschweinchens über die Menge des geschmolzenen Eises bestimmte. Er baute dabei auf den Erkenntnissen von Joseph Black über die latente Wärme (Schmelzwärme) des Eises auf.

Alfred Blume

6. Immunologische Techniken

Dank ihrer hohen Spezifität in der Erkennung von allen möglichen molekularen Strukturen, vor allem auch von solchen, die sich nur geringfügig unterscheiden, haben Antikörper eine steigende Bedeutung in der Bioanalytik, aber auch als Therapeutika gewonnen. Da die Induktion und Synthese von Antikörpern in vivo ein sehr komplexer, in der Immunologie abgehandelter Vorgang ist, sollen hier einige für das Verständnis der Synthese, Struktur und Funktion von Antikörpern wichtige Aspekte erläutert werden. Diese Übersicht beschäftigt sich vor allem mit dem Einsatz von Antikörpern als analytisches Reagenz in einer großen Fülle von immunologischen Nachweisverfahren für unzählige Aufgaben, bis hin zu adaptierten und vollsynthetischen Immuntherapeutika.

Hyun-Dong Chang, Reinhold Paul Linke

7. Chemische Modifikation von Proteinen und Proteinkomplexen

Die chemische Modifikation von Proteinen spielte – und spielt noch immer – eine bedeutende Rolle in der Proteinforschung. Während sie im vergangenen Jahrhundert hauptsächlich zur Identifizierung essenzieller funktioneller Gruppen in Enzymen diente, wird sie heute hauptsächlich genutzt, um Reportergruppen einzuführen, die ihrerseits Informationen über die Struktur von Proteinen sowie ihre Struktur-Wirkungs-Beziehungen liefern oder ermöglichen, das Schicksal eines Proteins in der Zelle orts- und zeitaufgelöst, z. B. über Fluoreszenzmikroskopie, zu verfolgen.

Sylvia Els-Heindl, Anette Kaiser, Kathrin Bellmann-Sickert, Annette G. Beck-Sickinger

8. Spektroskopie

Mit biophysikalischen Messmethoden möchte man Informationen über Form, Größe, Aufbau, Struktur, Ladung, Molekulargewicht, Funktion und Dynamik von biologischen Makromolekülen erlangen. Optische spektroskopische Methoden können Teilaspekte aufklären, zwar nicht in so detaillierter Form wie es beispielsweise bei der hochaufgelösten Kristallstruktur eines Enzyms möglich ist, aber dafür mit sehr viel weniger Aufwand. Nicht nur der apparative Aufwand ist relativ niedrig, sondern auch die Anforderungen an Reinheit, Menge oder spezielle Formen eines Präparats. Auch der Aufwand, den ein Experimentator treiben muss, um zu einer sinnvollen Interpretation zu kommen (Auswertung, Modellbildung, Experimente an Modellsystemen), ist in der Regel niedrig.

Werner Mäntele

9. Lichtmikroskopische Verfahren – Imaging

Erste optische Phänomene, die Grundlage für eine spätere Entwicklung von einfachen Lichtmikroskopen waren, wurden bereits in der Antike studiert. Der griechische Philosoph Euklid (323–285 v. Chr.) beschäftigte sich mit charakteristischen Eigenschaften von Licht, wie der geradlinigen Ausbreitung und der Reflexion. Der römische Philosoph Seneca (1 v. Chr.–65 n. Chr.) nimmt in seinen Abhandlungen Bezug auf den Vergrößerungseffekt von Wasser. Im Niltal wurden bei Ausgrabungsarbeiten Spiegel aus der Zeit um 1900 v. Chr. und in Pompeji planarkonvexe Linsen gefunden.

Thomas Quast, Waldemar Kolanus

10. Spaltung von Proteinen

Die Spaltung von Proteinen durch proteolytische Enzyme ist ein ubiquitärer Prozess, der in allen Zellen, Geweben und Organismen zur Anwendung kommt. Proteasen sind an einer Vielzahl physiologischer Prozesse intra- wie extrazellulär beteiligt. Sie spielen eine Schlüsselrolle bei der Kontrolle der Homeostase, der Qualitätskontrolle von Proteinen, dem kontrollierten Zelltod, der inter- und intrazellulären Signalweiterleitung, der Kontrolle viraler Replikation, Wirt-Pathogen-Wechselwirkungen, der Immunreaktion und bei vielen weiteren physiologischen Prozessen. Gerade deshalb sind Proteinasen und deren Inhibitoren auch von größter Bedeutung bei der Erforschung und Entwicklung von pharmazeutischen Wirkstoffen.

Josef Kellermann

11. Chromatographische Trennmethoden für Peptide und Proteine

Die Hochleistungsflüssigkeitschromatographie (HPLC) wurde in den letzten 30 Jahren zur unverzichtbaren Methode für die Trennung, Aufreinigung und Charakterisierung von synthetischen und biologischen Molekülen. Trotz großer Fortschritte, vor allem in der Instrumentierung, gibt es noch beachtliche Herausforderungen an die HPLC, wenn sie zur Analyse von biologischen Molekülen wie Peptiden und Proteinen in sehr komplexen Mischungen dienen soll, wie es z. B. in den Anwendungsbereichen Peptidomics, Proteomics und Degradomics der Fall ist.

Reinhard Boysen

12. Elektrophoretische Verfahren

Elektrophorese ist die Wanderung geladener Teilchen in einem elektrischen Feld. Unterschiedliche Ladungen und Größen der Teilchen bewirken unterschiedliche elektrophoretische Beweglichkeit. Ein Substanzgemisch wird dabei in einzelne Zonen aufgetrennt (◘ Abb. 12.1). Bei der Elektrophorese gibt es im Wesentlichen drei verschiedene Verfahren: die Zonenelektrophorese (mit Träger oder trägerfrei) in einem homogenen Puffersystem, die Isotachophorese im diskontinuierlichen Puffersystem und die isoelektrische Fokussierung in einem pH-Gradienten. In diesem Kapitel werden die unterschiedlichen Trennsysteme, Instrumentierungen und Nachweisverfahren beschrieben.

Reiner Westermeier, Angelika Görg

13. Kapillarelektrophorese

Das grundsätzliche Prinzip der Elektrophorese, als Wanderung geladener Teilchen im elektrischen Feld definiert, wurde zuerst von Kohlrausch (1897) beschrieben. Tiselius entwickelte 1930 die Elektrophorese als Analysenmethode für Proteine und erhielt 1948 für seine Arbeiten den Nobelpreis.

Philippe Schmitt-Kopplin, Gerhard K. E. Scriba

14. Aminosäureanalyse

Viele Techniken in der Proteinchemie setzen eine genaue Kenntnis der eingesetzten Proteinmenge voraus. Die Aminosäureanalyse liefert dabei weitaus mehr und genauere Informationen als kolorimetrische Methoden. Sie dient neben der genauen Mengenbestimmung auch zur Ermittlung der relativen Aminosäurezusammensetzung von Peptiden und Proteinen und zur Bestimmung von freien Aminosäuren. Die prozentuale Zusammensetzung der Aminosäuren ergibt für jedes Protein ein charakteristisches Profil, das in vielen Fällen für eine Identifizierung des Proteins in einer Datenbank bereits ausreicht. Der gleichzeitige Nachweis von Aminozuckern gibt auch Hinweise auf das Vorliegen eines Glykoproteins. Die Aminosäurezusammensetzung dient häufig als Entscheidungshilfe bei der Auswahl der richtigen Protease zur gezielten Fragmentierung eines Proteins. Außerdem wird die Aminosäureanalyse bei der C-terminalen Sequenzanalyse eingesetzt.

Josef Kellermann

15. Proteinsequenzanalyse

Bereits 1940 war man sich einig, dass Proteine aus Aminosäuren bestehen und dass die Aminosäuren über die sog. Peptidbindung verknüpft sind (◘ Abb. 15.1). Man wusste, dass die so vorhandenen kettenartigen Moleküle an einem Ende, das als N-terminales Ende bezeichnet wird, eine freie Aminogruppe tragen, und an dem anderen, dem C-terminalen Ende, eine freie Carboxygruppe. Keineswegs einig war man sich zu dieser Zeit hingegen, ob ein bestimmtes Protein aus einem Gemisch verschiedener Polymere besteht, die zwar eine definierte Anzahl und Art von Aminosäuren beinhalten, deren Reihenfolge aber ganz unterschiedlich sein kann, oder aus einer einzigen Spezies von Molekülen, die eine ganz definierte Aminosäuresequenz aufweisen.

Friedrich Lottspeich

16. Massenspektrometrie

Die Massenspektrometrie (MS) stellt eine Analysetechnik zur Bestimmung des Masse-zu-Ladungsverhältnisses (m/z) von Ionen im Hochvakuum dar. Ende der Achtzigerjahre des letzten Jahrhunderts führten die Arbeiten von John B. Fenn (USA) zur Entwicklung der Elektrospray-Ionisation (ESI) und von Franz Hillenkamp und Michael Karas (Deutschland) sowie Koichi Tanaka (Japan) zur Entdeckung und Anwendung der matrixassistierten Laserdesorption/Ionisation (MALDI). Erst diese neuen, sanften Ionisationsmethoden machten die intakte Überführung von größeren biologischen Makromolekülen wie Proteinen, komplexen Kohlenhydraten und mehrzähligen Nucleinsäuren in die Gasphase und damit ihre massenspektrometrische Analyse möglich. Im Jahre 2002 wurden Fenn und Tanaka für ihre methodischen Entwicklungen zur Identifizierung von biologischen Makromolekülen mit dem Nobelpreis für Chemie ausgezeichnet. Beide Verfahren sind bezüglich ihrer spezifischen Anforderungen und Stärken komplementär und dominieren zusammen die biologische Massenspektrometrie.

Helmut E. Meyer, Thomas Fröhlich, Eckhard Nordhoff, Katja Kuhlmann

17. Massenspektrometriebasierte Immunassays

Massenspektrometriebasierte Immunassays (MSIA) kombinieren die schnelle Anreicherung von Proteinen oder Peptiden durch Antikörper mit der Spezifität der Massenspektrometrie und erlauben so den spezifischen und sensitiven Nachweis und die absolute Quantifizierung von Proteinen in Blut, Urin und Geweben. Die hochspezifische Detektion von Proteinen und Peptiden mit modernen Massenspektrometern macht aufgrund der sehr hohen Massengenauigkeit und der Möglichkeit, spezifische Fragmentmassen für die Quantifizierung zu nutzen, falsch-positive Ergebnisse äußerst unwahrscheinlich. Durch die Verwendung von Antikörpern oder anderen Fängermolekülen in affinitätsbasierten chromatographischen Systemen werden auch in sehr geringer Konzentration vorliegende Proteine oder Peptide aufkonzentriert, während hochabundante Matrixproteine oder Peptide abgereichert werden. Dadurch können Analysenzeiten verkürzt, der Probendurchsatz gesteigert und Nachweisgrenzen für die nachzuweisenden Proteine verbessert werden.

Oliver Pötz, Thomas O. Joos, Dieter Stoll, Markus F. Templin

18. Bildgebende Massenspektrometrie

Zelluläre Vorgänge werden durch molekulare Stoffklassen repräsentiert, die mit Begriffen wie Genom, Transkriptom, Proteom, Lipidom, Metabolom beschrieben werden. Neben der kompositionellen Ebene der Zellfunktionalitäten spielt auch der räumliche molekulare Kontext innerhalb einer Zelle oder innerhalb eines Gewebes eine entscheidende Rolle. Es besteht heute kein Zweifel, dass eine biologische Funktion nicht allein von den Mengen der daran beteiligten Moleküle abhängig ist, sondern es spielt auch – oder vielleicht sogar vor allem – der lokale Kontext, die Nachbarschaft, in der sich die einzelnen funktionellen Moleküle befinden, eine wesentliche Rolle. Daher müssen immer häufiger Techniken eingesetzt werden, die konsequent den räumlichen Kontext von Biomolekülen, das sog. Toponom, analysieren.

Bernhard Spengler

19. Protein-Protein-Wechselwirkungen

Bei jedem biologischen Prozess spielen Protein-Protein-Wechselwirkungen eine wesentliche Rolle: DNA-Replikation, Transkription, Translation, Spleißen, Sekretion, Kontrolle des Zellzyklus oder Signaltransduktion können weitgehend anhand ihrer Proteininteraktionen beschrieben werden. Daher ist die Aufklärung dieser Abläufe vor allem eine Aufklärung der zugrunde liegenden Protein-Protein-Wechselwirkungen.

Peter Uetz, Eva-Kathrin Ehmoser, Dagmar Klostermeier, Klaus Richter, Ute Curth

20. Bio- und biomimetische Sensoren

Biomoleküle (Enzyme, Antikörper sowie Nucleinsäuren) werden schon seit mehreren Jahrzehnten als Reagenzien in der Analytik eingesetzt. Bei der Analyse findet eine Reaktion zwischen dem biochemischen Reagens (dem Erkennungselement) und der zu bestimmenden Substanz (dem Analyten) statt. Der Reaktionsverlauf wird mit verschiedenen Techniken angezeigt (◘ Tab. 20.1).

Frieder W. Scheller, Aysu Yarman, Reinhard Renneberg

3D-Strukturaufklärung

Frontmatter

21. Magnetische Resonanzspektroskopie von Biomolekülen

Das Phänomen der kernmagnetischen Resonanz (NMR, Nuclear Magnetic Resonance) wurde 1945 entdeckt: In einem homogenen Magnetfeld spalten die Energieniveaus des Kernspins in mehrere Zustände auf. Zwischen ihnen kann ein Übergang induziert werden, wenn man Radiowellen mit einer Frequenz einstrahlt, die dem Energieunterschied der Zustände entspricht. Dabei unterscheidet sich die NMR-Spektroskopie jedoch in zwei wesentlichen Punkten von anderen spektroskopischen Methoden: Zum einen wird die Aufspaltung der Energieniveaus erst durch das Magnetfeld induziert, zum anderen findet die Wechselwirkung der Kernspins mit der magnetischen und nicht mit der elektrischen Komponente der elektromagnetischen Strahlung statt.

Markus Zweckstetter, Tad A. Holak, Martin Schwalbe

22. EPR-Spektroskopie an biologischen Systemen

Die Elektronen-Paramagnetische-Resonanz- (EPR-)Spektroskopie, die auch Elektronenspinresonanz (ESR) genannt wird, ist eine spektroskopische Methode (► Kap. 8 ), mit der Informationen über die Art, Struktur, Dynamik und lokale Umgebung paramagnetischer Zentren erhalten werden können. Solche Zentren zeichnen sich dadurch aus, dass sie ein oder mehrere ungepaarte Elektronen besitzen. In biologischen Makromolekülen sind dies (◘ Abb. 22.1): Metallionen (z. B. Cu(II), Fe(III), Mn(II), Mo(V)), Metallcluster (z. B. Eisen-Schwefel-Cluster oder Mangancluster) oder organische Radikale. Organische Radikale werden u. a. als Zwischenprodukte in Elektrontransferreaktionen in Proteinen (z. B. Semichinonradikale, Thiylradikale oder Tyrosinradikale) oder strahlungsinduziert in DNA (z. B. Zucker oder Basenradikale) gebildet. Häufig sind diese Zentren katalytisch aktiv, oder sie sind in biologisch relevante Reaktionen involviert, sodass strukturelle und dynamische Informationen über diese Stellen wichtig für das Verständnis der Funktion dieser Biomoleküle sind. Diamagnetische Systeme, also Moleküle, in denen alle Elektronen gepaart sind, können für die EPR-Spektroskopie zugänglich gemacht werden, indem gezielt sog. Spinlabel kovalent an das Biomolekül gebunden werden. Üblicherweise werden hierfür entsprechend funktionalisierte Nitroxide verwendet. Für EPR-Messungen an spinmarkierten Biomolekülen in Zellen müssen die Label gegen die reduktiven Bedingungen in der Zelle genügend stabil sein, deswegen werden hierfür auch Gd(III)-Komplexe oder Tritylradikale eingesetzt, wobei die letzteren auch Verwendung für Nanometer-Abstandsmessungen bei Raumtemperatur finden (► Abschn. 22.4.7). EPR-spektroskopische Methoden erlauben dann z. B., die Anordnung von Untereinheiten oder die Bindung zwischen Biomolekülen zu untersuchen.

Olav Schiemann, Gregor Hagelueken

23. Elektronenmikroskopie

Mit mikroskopischen Techniken können heute Bilder von kleinen Organismen, Zellverbänden, einzelnen Zellen, Zellorganellen, Membranen, makromolekularen Komplexen, von isolierten Makromolekülen und Atomen gewonnen werden. Aber die Möglichkeit, buchstäblich in die entferntesten Winkel der lebenden Materie zu blicken, vom ganzen Organismus bis hin zu den atomaren Bausteinen, ist mit einem einzigen Instrument nicht zu realisieren. Aus diesem Grund verwendet man verschiedene Mikroskope mit unterschiedlichem Auflösungsvermögen, um so die verschiedenen Zeit- und Längenskalen abzudecken und zelluläre Strukturen in ihrer Gesamtheit zu visualisieren und zu analysieren. Das Spektrum der bildgebenden Verfahren und Methoden des 21. Jahrhunderts ist dabei äußerst vielfältig. Trotz ihrer im Vergleich zur Lichtmikroskopie relativ kurzen Geschichte ist die Elektronenmikroskopie in der Biologie ein etabliertes Verfahren, und seit der „Auflösungsrevolution“ (resolution revolution) im letzten Jahrzehnt ist die Methode der Kryo-Elektronenmikroskopie (Kryo-EM) besonders in der Strukturforschung sehr populär.

Philipp Erdmann, Sven Klumpe, Juergen M. Plitzko

24. Rasterkraftmikroskopie

1986 wurde das Rasterkraftmikroskop (engl. atomic force microscope, AFM), ein einfaches, aber revolutionäres Gerät zur Abbildung von Oberflächen, vorgestellt. Revolutionär, weil es möglich wurde, einzelne Objekte mit einer Auflösung bis hin zu wenigen Ångström abzubilden, die Objekte mit der gleichen Präzision zu manipulieren und gleichzeitig deren physikalische, chemische und biologische Eigenschaften zu quantifizieren. Das Rasterkraftmikroskop gehört zur Familie der Rastersondenmikroskope (scanning probe microscopes, SPM), welche Oberflächen mit spitzen Sonden abtasten. Dabei ist jedes Mitglied der Familie auf bestimmte Wechselwirkungen der Sonde mit dem Objekt spezialisiert. Dazu zählen optische Signale beim Rasternahfeldmikroskop (scanning near-field microscope, SNOM), Tunnel-Ströme beim Rastertunnelmikroskop (scanning tunneling microscope, STM), Ionenströme (scanning ion conductance microscope, SICM) oder magnetische Wechselwirkungen beim Magnetkraftmikroskop (magnetic force microscope, MFM). Mittlerweile sind über vierzig verschiedene Messanwendungen für die Rastersondenmikroskopie anorganischer und organischer Proben entwickelt worden.

Nico Strohmeyer, Daniel J. Müller

25. Röntgenstrukturanalyse

Röntgenkristallographie ist die meistverwendete Methode in der molekularen Strukturbiologie. Bis Mitte 2019 wurden über 150.000 dreidimensionale Modelle von biologischen Makromolekülen in der Protein Data Bank (PDB; ► www.rcsb.org ) deponiert. Etwa 89 % dieser Strukturen sind Kristallstrukturen. Magnetische Kernresonanzspektroskopie (NMR, ► Kap. 21 ) und Kryoelektronenmikroskopie (Kryo-EM, ► Kap. 23 ) tragen 8 % bzw. 2 % der Strukturen bei. Mit Röntgenkristallographie können Moleküle beliebiger Größe analysiert werden. Im Gegensatz dazu ist NMR-Spektroskopie auf Moleküle <40 kDa beschränkt, und Kryo-EM erfordert heutzutage noch molekulare Massen >50 kDa. Röntgenstrukturanalyse im weiteren Sinn umfasst alle Methoden, die Röntgenlicht verwenden. Dazu gehören neben der klassischen Kristallographie die Röntgen-Kleinwinkelstreuung SAXS (Small Angle X-ray Scattering), WAXS (Wide-Angle X-ray Scattering), die Röntgenptychographie (eine Variante der Röntgenmikroskopie), EXAFS- (Extended X-ray Absorption Fine Structure) Spektroskopie und XANES- (X-ray Absorption Near Edge Structure) Spektroskopie. Hier werden lediglich Röntgenkristallographie und SAXS besprochen. Kristallographie liefert Auflösungen im einstelligen Ångstrøm-Bereich (1 Å = 0,1 nm = 100 pm = 10−10 m) und ist damit mit NMR und Kryo-EM vergleichbar. Die Auflösungen bei SAXS liegen im Bereich von mehreren Nanometern und entsprechen damit denen der konventionellen Elektronenmikroskopie und der Rasterkraftmikroskopie (► Kap. 24 ; ◘ Abb. 25.1). Dabei ist Auflösung definiert als der minimale Abstand zweier Objekte, bei dem sie noch als getrennt identifiziert werden können.

Dagmar Klostermeier, Markus G. Rudolph

Spezielle Stoffgruppen

Frontmatter

26. Analytik synthetischer Peptide

Synthetische Peptide haben nicht nur in der Erforschung von bioaktiven Peptiden, wie z. B. von Hormonen und Neurotransmittern, und in der Wirkstoffentwicklung eine immense Bedeutung, sondern auch in der Proteinforschung. Synthetisch dargestellte Segmente von Proteinen dienen als Referenzen bei der Identifizierung einer Primärsequenz, werden zur Epitopcharakterisierung von viralen und bakteriellen Oberflächenproteinen eingesetzt („synthetische Impfstoffe“), dienen zur Anti-Protein-Antikörpergewinnung, die dann gegen ganz bestimmte Proteinbereiche gerichtet sind, und werden zur Konformationsanalyse von Segmenten eingesetzt. Durch die rapide Entwicklung der Fluoreszenzmethoden werden Peptide, die selektiv einen Fluoreszenzfarbstoff tragen, häufig für Interaktionsstudien eingesetzt. Für diese vielfältigen Anwendungen ist die Festphasenstrategie die wirkungsvollste Synthesemethode, insbesondere wenn nur geringe Mengen (weniger als 10 mg) und durchschnittliche Reinheit (95–98 %) benötigt werden.

Annette G. Beck-Sickinger, Jan Stichel

27. Kohlenhydratanalytik

Kohlenhydrate – oder einfacher Zucker – sind allgegenwärtig. Etwa 80 % der Biomasse auf der Erde sind Kohlenhydrate, sei es in Form von kurzen Mono- oder Disacchariden wie Haushaltszucker und Lactose oder als lange, regelmäßige Polysaccharide wie Cellulose und Stärke. Neben ihrer enormen Bedeutung als Energielieferanten und als strukturelle Polymere spielen Zucker auch eine entscheidende Rolle bei einer Reihe von physiologischen Prozessen. Hier sind es meist komplexe, verzweigte Strukturen – sog. Oligosaccharide oder Glykane –, die wesentliche Funktionen übernehmen. Häufig sind sie dabei an andere Biomoleküle wie Proteine oder Lipide gebunden, deren Funktion sie maßgeblich beeinflussen. N- und O-Glykane sind verschieden lange, unterschiedlich verzweigte Oligosaccharide, die auf der Oberfläche von Proteinen zu finden sind. Zwischen verschiedenen Spezies (Menschen, Tiere, Hefen, Insekten, Viren, Bakterien) treten oft nur geringe Unterschiede in der Aminosäuresequenz der Glykoproteine auf, wohingegen die Glykosylierung sehr heterogen und divers sein kann. Auch in der Extrazellulärmatrix finden sich Zucker, meist in Form von langkettigen Polysacchariden, die als Glykosaminoglykane bezeichnet werden. Sie sorgen in proteingebundener Form als Proteoglykane für die Stabilität und Integrität der extrazellulären Matrix und haben in ungebundener Form großen Einfluss auf die Blutgerinnung als Antikoagulanzien. Zucker tragen ebenfalls maßgeblich zur Gesunderhaltung der Darmflora bei. Die bei dem Abbau von Milchzucker entstehende Milchsäure führt zu einer Absenkung des pH-Wertes im Darm, und das so entstehende saure Darmmilieu erschwert die Vermehrung von Krankheitskeimen und Pilzen. Unverdaute Milchzucker wiederum dienen den Bakterien des Dickdarms zusätzlich als Nahrungsquelle und tragen damit zur Entstehung und Erhaltung des Mikrobioms bei. Diese Darmflora übernimmt mannigfaltige Funktionen, und krankheitsbedingte Änderungen ihrer Struktur können mitunter drastische Konsequenzen haben. Selbst depressive Gemütszustände lassen sich auf Störungen der Mikrobiota zurückführen.

Andreas Zappe, Kevin Pagel

28. Lipidanalytik

Lipide sind neben den Proteinen, den Nucleinsäuren und den Kohlenhydraten die vierte große Naturstoffklasse. Als gemeinsames, definierendes Merkmal aller Lipide können ihre Unlöslichkeit in Wasser (Hydrophobizität) und ihre gute Löslichkeit in organischen Lösungsmitteln angesehen werden. Die biologischen Funktionen der Lipide sind ebenso vielfältig wie ihre chemische Struktur, können aber im Wesentlichen in fünf große Gruppen zusammengefasst werden:

Hartmut Kühn

29. Analytik posttranslationaler Modifikationen: Phosphorylierung und oxidative Cysteinmodifikation von Proteinen

Biologische Prozesse wie Wachstum, Entwicklung, Differenzierung, Vermehrung und Apoptose von Zellen werden hauptsächlich durch Proteine und ihre Interaktionen miteinander oder mit Metaboliten, Lipiden, Zuckern und Nucleinsäuren vermittelt. Unter anderem ermöglichen Proteine durch die inter- und intrazelluläre Signalweiterleitung die Kommunikation zwischen Zellen, die für das koordinierte Verhalten der verschiedenen Zellen eines Organismus erforderlich ist. Ankommende Signale werden von spezifischen Rezeptorproteinen z. B. auf der Oberfläche einer Zelle registriert und an unterschiedliche Proteine weitergegeben, die ihrerseits das Signal an nachstehende Proteine weiterleiten. Auf diese Weise werden spezifische Signalproteine in Abhängigkeit von der Art des ankommenden Signals sukzessive in die Signalweiterleitung einbezogen, und es bilden sich Signalkaskaden, die das Verhalten der Zelle steuern. Die Funktionen und Aktivitäten der einzelnen Proteine werden dabei nicht allein durch die zur Verfügung stehenden Proteinmengen kontrolliert, die von den Raten der Expression, Biosynthese und Degradation abhängen, sondern sie werden zusätzlich durch spezifische posttranslationale Modifikationen (PTMs) moduliert. PTMs erhöhen die Zahl der durch die 22 proteinogenen Aminosäuren möglichen molekularen Strukturen. Somit stellen sie eine zusätzliche Steuerungsebene für die Interaktion, Lokalisierung und Stabilität von Proteinen dar. Phosphorylierungen, Ubiquitinylierungen, Acetylierungen, Methylierungen, Glykosylierungen sowie oxidative Cysteinmodifikationen zählen zu den am häufigsten untersuchten PTMs.

Gereon Poschmann, Nina Overbeck, Katrin Brenig, Kai Stühler

Nucleinsäureanalytik

Frontmatter

30. Isolierung und Reinigung von Nucleinsäuren

Grundvoraussetzung nahezu aller experimentellen Ansätze der modernen Nucleinsäureanalytik sind einwandfreie Nucleinsäurepräparationen. Viele experimentelle Methoden sind von Anfang an zum Scheitern verurteilt, sind die Ausgangsverbindungen nicht in einwandfreiem, d. h. sauberem und kontaminationsfreiem Zustand. Kontaminationen in Nucleinsäurepräparationen können Nucleasen, Nucleinsäuren anderer Art, Makromoleküle oder Salze sein. Man sollte daher großen Wert auf eine sorgfältige Isolierung und Reinigung der zu bearbeitenden Nucleinsäuren legen. Ebenso groß wie die Vielfalt der Nucleinsäuren sind auch deren Isolierungsmethoden aus den verschiedenen Organismen. Hochmolekulare, genomische DNA muss aus naheliegenden Gründen anders isoliert und behandelt werden als kleine, einzelsträngige RNA-Moleküle oder zirkuläre Plasmide. Ebenso spielt der Ausgangsorganismus eine große Rolle. Bakterienwände müssen anders aufgeschlossen werden als die Zellwände von Hefen oder die Zellmembranen von Säugerzellen. Abhängig von der nachfolgenden Anwendung kann unter Umständen auf eine langwierige Aufreinigung verzichtet werden oder es kann erforderlich sein, hochreine, intakte DNA zu isolieren. Auch die Next-Generation-Nucleinsäureanalytik ist vornehmlich abhängig von der Qualität des Ausgangsmaterials. Hier sind je nach Art des instrumentellen Ansatzes spezielle Aufreinigungsprotokolle erforderlich. Ein äußerst wichtiger Aspekt ist die Aufarbeitung von Nucleinsäuren im sog. High-Throughput-Format, z. B. für diagnostische Zwecke oder im Bereich der Genomsequenzierung. Hier muss eine große Anzahl von Nucleinsäuren gleichzeitig aufgereinigt werden. Hierzu müssen die Protokolle den Möglichkeiten der Automation entsprechend angepasst werden. Diesen Anforderungen können nur zahlreiche verschiedene Protokolle gerecht werden. In diesem Kapitel werden die Isolierungsmethoden nach der Art der zu isolierenden Nucleinsäure unterteilt. Obwohl die Aufreinigung der Nucleinsäuren überwiegend mit kommerziell erhältlichen Kits erfolgt, basieren diese häufig auf allgemein anwendbaren Techniken, die in diesem Kapitel aufgezeigt werden sollen.

Marion Jurk

31. Aufarbeitung und chemische Analytik von Nucleinsäuren

Nucleinsäuren haben sich in den letzten Jahren/Jahrzehnten zu einem universellen Werkzeug in der Forschung entwickelt – beispielsweise in der Genomanalytik, wo spezifische DNA-Abschnitte mittels PCR nachgewiesen, die Menge spezifischer mRNA mittels RT-PCR (qPCR) quantifiziert oder die Sequenz von Genomabschnitten bestimmt werden kann. Damit wurden enorme Erkenntnisse über die Entstehung von Erkrankungen erlangt und es konnten mögliche Behandlungsansätze entwickelt werden. Darüber hinaus werden Nucleinsäuren, vor Allem kürzere Oligonucleotide dazu verwendet, die Expression von Genen aktiv zu beeinflussen – sei es als chemisch hergestellte Antisense DNA oder siRNA, mit der die Expression von Genen vermindert werden kann, oder shRNA, deren DNA-Sequenz in Vektoren eingebracht, die Expression spezifischer Genabschnitte nahezu vollständig verhindert. Auch mRNAs werden mittlerweile für therapeutische Zwecke meist halbsynthestisch hergestellt und werden genauso wie auch die CRISPR/Cas Genscheren (► Kap. 41 ) und in Zellen eingebracht werden, um dort ihre spezifische Wirkung zu entfalten. Doch Oligonucleotide müssen nicht immer ausschließlich über ihre Sequenz eine Funktion ausüben – bei Aptameren beispielsweise wird eine Wechselwirkung mit anderen Molekülen (insb. Proteinen) über die Raumstruktur erreicht.

Tobias Pöhlmann, Marion Jurk

32. RNA-Strukturaufklärung durch chemische Modifikation

Ribonucleinsäuren (RNA) sind unverzweigte Phosphat/Ribose-Polymere mit heterocyclischen Basen (Nucleobasen) als Substituenten. Sie gehören neben Proteinen, DNA-Molekülen und Kohlenhydraten zu den zentralen polymeren Verbindungen in biologischen Systemen. Ein substanzieller Teil der Masse jeder pro- und eukaryotischen Zelle geht auf RNA-Moleküle zurück. Gleichzeitig stehen Ribonucleinsäuren als synthetische Biomaterialien im Fokus der Forschung, u. a. zur Herstellung nanoskalierter, nucleinsäurebasierter Bauelemente. RNA-Moleküle üben eine Fülle an Funktionen in biologischen Systemen aus (Sharp 2009; Cech und Steitz 2014). Diese reichen von der Aufgabe, als chemisch-genetische Informationsspeicher zu fungieren, über die Katalyse biochemischer Umsetzungen bis hin zu zellulären Steuerfunktionen z. B. bei der zeitlichen und räumlichen Modulation von genregulatorischen Prozessen (Mustoe et al. 2018). Letzteres manifestiert sich in einem als „pervasive Transkription“ bezeichneten biologischen Phänomen: Nahezu das gesamte Genom eines Organismus wird transkribiert und damit in RNA-Moleküle übersetzt (Amaral et al. 2008). Als Ergebnis enthalten sowohl pro- wie eukaryotische Zellen eine Vielzahl unterschiedlicher „RNA-Spezies“. Hierzu gehören ribosomale (r)RNAs, transfer- (t)RNAs, messenger- (m)RNAs, micro- (mi)RNAs (► Abschn. 41.2.5 ), kurze und lange non-coding- (nc)RNAs, small interfering- (si)RNAs (► Abschn. 41.2 ), guide- (g)RNAs, Piwi-interacting- (pi)RNAs und viele mehr. Die spezifischen Funktionen dieser RNAs werden durch deren Primärsequenzen, in letzter Konsequenz jedoch durch die zwei- und dreidimensionalen Faltungen der Moleküle bestimmt. Dieser Umstand macht es notwendig, neben der Sequenzierung von RNA-Molekülen auch deren Struktur zu bestimmen. Letzteres ist umso bedeutender, da die Faltung eines RNA-Moleküls unter unterschiedlichen physikalischen und chemischen Randbedingungen, ebenso wie in unterschiedlichen biologischen Funktionszuständen, zu alternativen räumlichen Anordnungen führt. Im zellulären Kontext kann das bedeuten, dass für eine spezifische RNA-Spezies ein dynamisches Ensemble an unterschiedlich gefalteten Molekülen existiert, das sich in Abhängigkeit von den Milieubedingungen zugunsten unterschiedlicher struktureller Subpopulation verschiebt. Auch besteht die Möglichkeit, dass eine RNA-Spezies alternative Faltungen mit ähnlichen thermodynamischen Stabilitäten einnehmen kann.

W.-Matthias Leeder, H. Ulrich Göringer

33. Polymerasekettenreaktion

Die Polymerasekettenreaktion (Polymerase Chain Reaction, PCR) ist ein Verfahren zur synthetischen Vervielfältigung (Amplifikation) von Nucleinsäuren (Desoxyribonucleinsäure, DNA) bzw. Nucleinsäureabschnitten mithilfe des Enzyms DNA-Polymerase, welches in allen Lebewesen vorkommt und vor der Zellteilung während der Replikation die DNA der Zelle verdoppelt. Das Verfahren wurde 1983 zum ersten Mal wissenschaftlich durch Kary B. Mullis vollständig beschrieben, wofür er 1993 mit dem Nobelpreis für Chemie geehrt wurde.

Sandra Niendorf, C.-Thomas Bock

34. DNA-Sequenzierung

Im Jahre 1975 legte Frederick Sanger mit der Entwicklung einer enzymatischen Sequenzierungsmethode den Grundstein für das mächtigste Werkzeug zur Analyse der Primärstruktur der DNA. Zum damaligen Zeitpunkt waren weder die weitreichenden Implikationen für das Verständnis von Genen oder ganzen Genomen noch die rasante Entwicklung dieser Methode abzusehen. Frederick Sanger freute sich damals über die Sequenzierungvon fünf Basen in einer Woche, wie er selbst rückblickend anlässlich eines Empfangs 1993 im Sanger Center (Cambridge, England) feststellte.

Andrea Thürmer, Kilian Rutzen

35. Analyse der epigenetischen Modifikationen

Die wichtigste epigenetische Modifikation der DNA ist die Methylierung von Cytosin am C5-Atom zu 5-Methylcytosin 5mC (◘ Abb. 35.1). 5-Methylcytosin kann zu 5-Hydroxymethylcytosin 5hmC, 5-Formylcytosin 5fC und 5-Carboxycytosin 5caC oxidiert werden (◘ Abb. 35.1). Die Methylierung von Adenin am N6-Atom zu N6-Methyladenin N6mA (◘ Abb. 35.1) ist auch in Prokaryoten zu finden und dient hier als Schutzmechanismus (Dam-Methylierung: GN6mATC) der eigenen DNA gegen sequenzspezifische Restriktionsenzyme. Methylierung von Cytosin (Dcm-Methylierung: C5mCWGG) ist ebenfalls in Bakterien anzutreffen, wurde aber auch zusätzlich in Pflanzen, Invertebraten und Vertebraten als Modifikation (z. B. CpG-Methylierung: 5mCG) nachgewiesen.

Reinhard Dammann

36. Protein-Nucleinsäure-Wechselw-irkungen

Wechselwirkungen zwischen Proteinen und den beiden Nucleinsäuren DNA und RNA sind von fundamentaler Bedeutung bei zentralen Vorgängen in der Zelle. Alle Schritte der Weitergabe sowie der Expression der Gene werden durch DNA-Bindeproteine (DBPs) oder RNA-Bindeproteine (RBPs) orchestriert und reguliert. Die Replikation der DNA oder der Fluss der genetischen Information (das zentrale Dogma der Molekularbiologie), also Transkription der (DNA-)Gene zu mRNA und dann Translation dieser RNA zu Proteinen, ist nur durch vielfältige Protein-Nucleinsäure-Interaktionen in der Zelle möglich.

Rolf Wagner, Benedikt M. Beckmann

Systematische Funktionsanalytik

Frontmatter

37. Sequenzanalyse

In weniger als fünfzig Jahren haben die Biowissenschaften einen radikalen Wandel durchgemacht. Wir sind von der detaillierten Charakterisierung einzelner Biomoleküle aufgebrochen, haben diese zu Stoffwechselwegen und Komplexen zusammengefügt, haben die Technologien entwickelt, die uns ganze Genome und Proteome im Überblick darstellen konnten, und sind heute in der Post-Genomik, in der wir die detaillierten Sequenzen von Gen und Protein als bekannt voraussetzen können, ein reiches Spektrum von Annotationen frei verfügbar ist, und wir nun den Blick auf das Verständnis der funktionalen Zusammenhänge für Zellbiologie, Biotechnologie und Medizin richten. Dabei hat unser Gebiet mehrere Paradigmenwechsel durchgemacht: Vor vielleicht dreißig Jahren haben wir uns vor allem mit der Entwicklung von Algorithmen zur Interpretation von Sequenzen beschäftigt, seit vielleicht fünfzehn Jahren ist das große Thema die Frage, wie Daten effizient und unter Berücksichtigung ihrer Semantik integriert werden können. Heute geht es um Big Data – die Frage, wie wir nicht nur einzelne, sondern Tausende von Genomen gleichzeitig analysieren und vergleichen. Früher wurden kompilierte Programme in C oder Fortran für die Großrechenanlagen der Forschungszentren geschrieben, darauf folgte der breite Einsatz von interpretierten Sprachen wie Perl und PHP, mit denen wir Daten aus dem Internet in den Tischrechnern einzelner Wissenschaftler zusammenfügten; heute benutzen wir Python- und Javascript-Webframeworks, um Daten ins Netz zu stellen, sowie die Programmiersprache R mit ihrem reichen Angebot an Nutzerpaketen für die Bioinformatik, um reproduzierbare Analyseprozesse zu gestalten, während wir den Blick mehr und mehr auf die Auslagerung der eigentlichen Daten und Analysen in die Cloud (Datenwolke) richten. In diesem Kapitel beschäftigen wir uns mit der einzelnen Sequenz: Analyse der Information, Vergleich mit anderen Sequenzen, und Integration von Daten im Genommaßstab; wo immer möglich, unterstützt durch praktische Hinweise und konkrete Beispiele. Ein begleitendes R-Projekt des Autors – das san-Projekt – kann zur Vertiefung und als Einstieg in eigene Programme aus dem Web geladen werden (► https://github.com/hyginn/san ). Wo immer dies sinnvoll ist, betrachten wir die Analyse des Mbp1-Proteins der Bäckerhefe, eines Transkriptionsfaktors, der für die Steuerung des Übergangs von der G1- in die S-Phase des Zellzyklus verantwortlich ist. Damit kann das Kapitel neben seinen allgemeinen Bemerkungen auch als Beispiel für die Analyse einer spezifischen Sequenz gelesen werden.

Boris Steipe

38. Hybridisierung fluoreszenzmarkierter DNA zur Genomanalyse in der molekularen Cytogenetik

Der Nachweis genomischer Veränderungen ist vor allem in der Humangenetik von großer Bedeutung. Abweichungen von dem diploiden Zustand des Genoms (2n) spielen in der klinischen Genetik, in der Tumorgenetik oder auch der Populationsgenetik eine große Rolle. Ziel der molekularen Cytogenetik ist die Charakterisierung des genomischen Profils klonal veränderter Zellpopulationen. Mit den hier vorgestellten Methoden der fluoreszenzmarkierten DNA-Hybridisierung können numerische (Monosomien, Polysomien) und strukturelle (Translokationen, Inversionen, Insertionen) Chromosomenveränderungen festgestellt werden.

Gudrun Göhring, Doris Steinemann, Michelle Neßling, Karsten Richter

39. Physikalische, genetische und funktionelle Kartierung des Genoms

Die Kartierung des Genoms ist ein wichtiges Forschungsgebiet in den Biowissenschaften und in der Medizin. Die Ergebnisse tragen wesentlich dazu bei, die Genetik von Organismen zu verstehen, und sie sind die Voraussetzung für die pränatale Diagnostik, die Diagnose von komplexen Erkrankungen und für die personalisierte Medizin, beispielsweise für gentherapeutische Ansätze. Bisher sind etwa 10.000 monogene Erkrankungen bekannt (WHO). Somit ist es heute möglich, zahlreiche Erbkrankheiten bereits in der pränatalen Phase zu erkennen. Wir wissen jedoch, dass es zahlreiche weitere Erkrankungen mit ausschließlich oder teilweise genetischer Ätiologie gibt. Viele Krankheiten sind polygenen Ursprungs, d. h. zur phänotypischen Ausprägung der Krankheit tragen mehrere Gendefekte bei. Zudem können genetische Defekte in somatischen Zellen, also außerhalb des Erbgangs, entstehen und beispielsweise Krebserkrankungen auslösen. Ein Ziel der Kartierung von Genomen ist es, genetische Ursachen für Krankheiten zu entschlüsseln. Die physikalische Karte des Genoms liefert absolute Distanzen zwischen bestimmten Markern im Genom. Zur ihr zählen klassischerweise auch cytogenetische Verfahren, die in ► Kap. 38 beschrieben sind. Die genetische Kartierung erfolgt über die Analyse der gemeinsamen Vererbung von DNA-Sequenzen (Markern), deren Position im Genom bekannt ist, die mit einem bestimmten Phänotyp – hier einem definierten Krankheitsbild – gekoppelt sind. Für die Identifizierung von potenziellen Zielmolekülen in der personalisierten Medizin soll die funktionale Karte von Sequenzabschnitten eine Unterstützung liefern.

Christian Maercker

40. DNA-Microarray-Technologie

Für das Verständnis funktioneller Mechanismen und Zusammenhänge in Organismen und Geweben sind umfassende Studien der biologischen Prozesse eine Voraussetzung. Nur über breit angelegte Analysen der verschiedenen molekularen Ebenen ist die Umsetzung genetischer Information in zelluläre Funktionen zu verstehen und damit eine Beschreibung der Vorgänge und ihrer Verknüpfung möglich. DNA-Microarrays – auch DNA-Chips genannt – schafften auf der Ebene der Nucleinsäuren die Voraussetzungen für viele solche Untersuchungen und brachten uns dem Ziel einer umfänglichen Darstellung zellulärer Vorgänge einen Schritt näher.

Jörg Hoheisel

41. Silencing-Technologien zur Analyse von Genfunktionen

In der postgenomischen Ära, die mit dem Abschluss der Sequenzierung des humanen Genoms begann, stellt es eine große Herausforderung dar, die Funktion der rund 20.000 menschlichen Gene und ihre Bedeutung bei verschiedensten Erkrankungen zu analysieren. Noch immer ist die biologische Funktion von über einem Drittel der Gene nicht geklärt. Auch von Genprodukten, die mechanistisch bereits intensiv erforscht wurden, ist oftmals die Relevanz in einem speziellen Zusammenhang nicht bekannt. Beispielsweise kann es wichtig sein, die genaue Bedeutung einer Kinase bei der Signalweiterleitung in einer Krebszelle zu analysieren. Eine Möglichkeit, die Rolle eines Gens zu erforschen, besteht darin, seine Expression zu blockieren und den resultierenden Loss-of-Function-Phänotyp zu untersuchen. Hierbei kann unterschieden werden zwischen Technologien, die auf der Ebene der mRNA ansetzen – man spricht dann vom posttranskriptionalen Gene Silencing –, und solchen, die auf der genetischen Ebene ansetzen und durch Gene Editing die DNA-Sequenz verändern. Zu den anti-mRNA Technologien gehören Antisense-Oligonucleotide und die RNA-Interferenz (RNAi), die zum spezifischen Silencing eines Gens eingesetzt werden können. In den vergangenen Jahren hat aber auch das Gene Editing durch die Entwicklung der CRISPR/Cas-Technologie einen enormen Fortschritt gemacht. Sie kann nicht nur an ausdifferenzierten Zellen, sondern auch an induzierten pluripotenten Stammzellen (iPSCs) angewandt werden, um spezifische Krankheitsmodelle zu etablieren und Pathomechanismen zu analysieren. Die ungeheure Dynamik des Feldes zeigt sich auch darin, dass zahlreiche Techniken, die noch in der letzten Ausgabe dieses Lehrbuches beschrieben wurden, aus Platzgründen nicht mehr behandelt werden, weil sie an Bedeutung verloren haben, wohingegen zentrale Methoden wie die CRISPR/Cas-Technologie oder die Verwendung von iPSCs neu aufgenommen wurden.

Jens Kurreck

42. Proteomanalyse

1975 veröffentlichten O’Farrell und Klose unabhängig voneinander zwei Arbeiten mit spektakulären Bildern, in denen sie zeigten, dass die Kombination von isoelektrischer Fokussierung und SDS-Gelelektrophorese in der Lage ist, äußerst komplexe Proteingemische aufzutrennen. Dieses damals neue Verfahren, die zweidimensionale Gelelektrophorese, setzte sich rasch als hochauflösende Technik zur Trennung von Proteinen durch. Bald versuchte man auch, die in den Proteinmustern enthaltene Information zur Lösung biochemischer und medizinischer Fragestellungen auszunutzen. Über den Vergleich der Proteinmuster aus verschiedenen, definierten Zuständen einer Zelle oder einer Körperflüssigkeit (z. B. krank oder gesund, verschiedene Stoffwechselzustände etc.) wurden Veränderungen im Proteinmuster sichtbar, die für diese Zustände charakteristisch waren (◘ Abb. 42.1). Diese Strategie zur Bearbeitung biologischer Fragestellungen wird als subtraktiver Ansatz bezeichnet. Die analytischen Methoden zur Proteincharakterisierung (Sequenzanalyse, Aminosäureanalyse) waren damals jedoch noch nicht in der Lage, so geringe Proteinmengen, wie in der zweidimensionalen Gelelektrophorese aufgetrennt werden konnten, zu analysieren. Erschwerend kam hinzu, dass die Proteine in ein Gelmaterial eingebettet waren, das mit diesen proteinchemischen Techniken inkompatibel war. Die Ergebnisse der subtraktiven Ansätze hatten daher meist nur deskriptiven Charakter. Man erkannte zwar im Proteinmuster wichtige Veränderungen, konnte aber über die Identität der beteiligten Proteine keine Aussagen machen. Dies änderte sich erst, als die proteinchemischen Methoden verbessert und viel empfindlicher wurden. Gleichzeitig fand man Wege, die Proteine in der Gelmatrix zu spalten oder sie aus der Gelmatrix auf chemisch inerte Membranen zu transferieren und dort zu analysieren. Aus den Erfolgen der subtraktiven Strategie in Verbindung mit den verbesserten analytischen Techniken wuchs dann die Idee, das gesamte Proteinmuster einer Zelle darzustellen und quantitativ zu interpretieren – dies ist die Zielsetzung der Proteomanalyse.

Friedrich Lottspeich, Kevin Jooß, Neil L. Kelleher, Michael Götze, Betty Friedrich, Ruedi Aebersold

43. Metabolomics

Die in der Biochemie und Biologie sehr lange erfolgreich praktizierte Untersuchung von einzelnen Bausteinen eines biologischen Systems, z. B. von einzelnen Genen, Proteinen oder Metaboliten, wurde in den letzten zwei bis drei Jahrzehnten durch sog. holistische Herangehensweisen (Genomics, Transkriptomics, Proteomics, Metabolomics, Lipidomics, u. v. a. m.) bedeutend erweitert. Grundlage dieser Erweiterung war die Entwicklung sehr leistungsfähiger und hochdurchsatzfähiger Analysentechniken inklusive der erforderlichen computerunterstützen Datengenerierung, -auswertung, -archivierung und -interpretation. Derartige systembiologische Ansätze versuchen, möglichst viele – idealerweise alle – an einem biologischen System auf verschiedenen molekularbiologischen Ebenen beteiligten Komponenten zu erfassen. Aufgrund des kausalen Zusammenhanges zwischen Genen, Transkripten, Proteinen und Stoffwechselprodukten in Verbindung mit der sehr komplexen biochemischen Regulation der beteiligten Vorgänge ist es möglich, durch Analyse der entsprechenden „Ome“ biologisch relevante Rückschlüsse auf den aktuellen Zustand eines biologischen Systems zu ziehen. Die Metabolomanalyse versucht daher, den Zustand oder das Verhalten eines biologischen Systems über niedermolekulare Komponenten mit Molekülmassen bis zu ca. 1500 Dalton zu beschreiben. Da Metaboliten die Endprodukte der genetischen Information darstellen, kommt das Metabolom dem tatsächlichen Phänotypen eines Organismus sehr nahe (◘ Abb. 43.1), sodass sich daraus wertvolle Aussagen über biochemische Mechanismen, Erkrankungen, Alterungsprozesse, Einflüsse von Umwelt, Ernährung bzw. Medikamentierung oder die Wirkung von Therapien ableiten lassen. Innerhalb der Metabolomics werden verschiedene Strategien und Terminologien verwendet:

Christian G. Huber

44. Interaktomics – systematische Analyse von Protein-Protein-Wechselwirkungen

Um die von Proteinen vermittelten Prozesse in Zellen besser verstehen zu können, sind die umfassende Charakterisierung der Proteine und die Bestimmung ihrer Interaktionspartner Grundvoraussetzungen. Ein erklärtes Ziel hierbei ist es, nicht nur die Anwesenheit und Menge, sondern auch den funktionellen Zustand eines Proteins zu bestimmen. Insbesondere seine Lokalisation in einem biologischen System, seine posttranslationalen Modifikationen und seine Interaktionspartner definieren die Funktion von Proteinen.

Markus F. Templin, Thomas O. Joos, Oliver Pötz, Dieter Stoll

45. Chemische Biologie

Das „Leben“ in all seiner Komplexität und der Vielfalt seiner Erscheinungsformen lässt uns Naturwissenschaftler auch in der zweiten Dekade des 21. Jahrhunderts, auch nach den dramatischen Entwicklungen und Erkenntnissen der Genomics und der Proteomics, immer noch staunen. Wir mussten erkennen, dass weder die Beantwortung der Frage „Welche Gene sind verfügbar und können exprimiert werden?“ noch Antworten auf die Frage „Welche Proteine sind aktuell in einer Zelle vorhanden?“ uns helfen, Schlüsseleigenschaften einer lebenden Zelle (Migration und Bewegung, Zellteilung und Wachstum, Stoffwechsel, Reizweiterleitung, Interaktion mit der unmittelbaren oder weiter entfernten Umgebung, Embryogenese, Geburt, Alterung, Tod), einzeln oder als Teil eines Organs oder eines Organismus, vollständig – im Sinne einer Bauanleitung – zu beschreiben. Insbesondere vor dem Hintergrund der globalen Herausforderungen unseres Jahrhunderts, wie der Versorgung aller Menschen mit Nahrung und Energie und der Gewährleistung und Wiederherstellung von Gesundheit, ist es aber unabdingbar, geeignete Werkzeuge zu finden, mit denen sukzessive Antworten auf die Frage nach dem Leben und die Unterscheidung von „gesund“ und „krank“ erhalten werden können. Es ist das Privileg der Chemischen Biologie, molekulare Werkzeuge für diese Aufgabe, das Verständnis und die Manipulation biologischer Vorgänge und Systeme, zur Verfügung zu stellen.

Daniel Rauh, Susanne Brakmann

46. Toponomanalyse

Die Hierarchie der Zellfunktionalitäten umfasst wenigstens vier verschiedene Ebenen: Genom, Transkriptom, Proteom und Toponom. Es besteht heute kein Zweifel, dass eine biologische Funktion nicht allein von den Mengen der daran beteiligten Moleküle abhängig ist, sondern es spielt auch – oder vielleicht sogar vor allem – der lokale Kontext, die Nachbarschaft, in der sich die einzelnen funktionellen Moleküle befinden, eine wesentliche Rolle. So ist z. B. inzwischen erwiesen, dass die relative Konzentration und differenzielle Anordnung von mehr als zwanzig Proteinen der Zellmembran und nicht die absolute Konzentration der einzelnen Proteine darüber entscheiden, ob eine Tumorzelle in einen Migrationsstatus eintreten kann. Daher müssen immer häufiger Techniken eingesetzt werden, die konsequent den räumlichen Kontext von Biomolekülen, das Toponom, analysieren.

Walter Schubert

47. Organ-on-Chip

Im Rahmen der Entwicklung und Zulassung potenzieller therapeutischer Wirkstoffe sind umfangreiche präklinische Untersuchungen und Validierungen erforderlich, bevor man diese zum ersten Mal in der Klinik an Patienten testen kann. Der gesamte Entwicklungsprozess dauert für einen neuen Wirkstoff im Mittel mehr als zehn Jahre, ist mit Entwicklungskosten von durchschnittlich ca. zwei Milliarden US-Dollar äußerst kostspielig und ist nur bedingt effektiv. Weniger als 20 % der präklinisch validierten Wirkstoffe werden nach klinischer Prüfung überhaupt zugelassen. Einer der Hauptgründe für die hohen Kosten und die geringe Effizienz des derzeitigen Arzneimittelentwicklungsprozesses ist das Fehlen physiologisch relevanter präklinischer Modelle, welche die Reaktion des Menschen auf neue Arzneimittel vorhersagen können. Derzeit beruht die präklinische Evaluierung der Wirksamkeit und Sicherheit der neuen Wirkstoffe vor allem auf Tiermodellen und zweidimensionalen (2D-)Zellkulturen. Die Verwendung von Tiermodellen ist mit hohen Kosten, ethischen Bedenken und einem geringen Testungsdurchsatz verbunden. Darüber hinaus stimmen die Ergebnisse von Tiermodellen häufig nicht mit Studienergebnissen am Menschen überein, hauptsächlich aufgrund physiologischer oder pathophysiologischer Unterschiede zwischen Tieren und Menschen. Zellkulturen werden seit Jahrzehnten als In-vitro-Modelle zur Untersuchung von Krankheitsmechanismen und Toxizität genutzt. Ihre Verwendung hat zu einer Fülle von Wissen in unterschiedlichen Bereichen, einschließlich der Biochemie, Biologie und Pharmakodynamik, geführt. Seit ihrer ursprünglichen Etablierung durch Ross Granville Harrison im Jahr 1907 hat sich an ihren Grundprinzipien aber wenig geändert. In der Regel werden Kulturen eines Zelltyps als 2D-Schichten unter statischen Bedingungen bei 37 °C bis zum Erreichen der Konfluenz kultiviert und anschließend weiter vereinzelt, um eine Konkurrenzsituation der Zellen untereinander zu vermeiden. Hierdurch wird die komplexe Struktur und Mikroumgebung lebender Gewebe im In-vitro-Modell nur unzureichend abgebildet. Eine Lösung für diese Problematik verspricht der Einsatz von Organ-on-Chip- (OoC-)Systemen. Diese komplexen In-vitro-Modelle bilden definierte organtypische Funktionen und deren Regulation in Abhängigkeit von genetischen und externen Faktoren nach. Hier ist es das Ziel, die Funktion eines Organs, basierend auf seiner kleinsten funktionalen Einheit (z. B. eines Leberläppchens), nachzubilden. Hierzu werden die spezifischen physiologischen Mikroumgebungen von Zellen und Geweben, deren sog. mikrophysiologische Umgebungen, möglichst realistisch in vitro reproduziert. Dies gelingt durch Kombination von Konzepten und Methoden aus unterschiedlichen Disziplinen, die von der Mikrostrukturierung und den Biomaterialien bis zur Stammzelltechnologie und Biochemie reichen. OoC-Systeme basieren auf optisch transparenten dreidimensionalen (3D-)Modulen, zumeist aus Polymeren, in die Mikrokammern strukturiert werden, die der Kultivierung von künstlich erzeugten oder natürlich gewachsenen Geweben dienen. Zum Funktionserhalt dieser Gewebe und der Nachahmung des in-vivo-Blutkreislaufs werden diese Mikrokammern kontinuierlich mit Nährstoffen durch zirkulierende Nährmedien versorgt. Aufgrund der optischen Transparenz können OoC-Systeme als „menschliche Zebrafische“ angesehen werden, da eine Beobachtung und Analyse der Morphologie und Dynamik der Gewebemodelle einfach möglich sind.

Peter Loskill, Alexander Mosig

48. Systembiologie

Mit fortschreitenden biochemischen und biophysikalischen Erkenntnissen zu den Strukturen von Molekülen setzte sich in den 1970er- und 1980er-Jahren die Erkenntnis durch, dass zur Bestimmung der Funktion von Genen und Proteinen deren Interaktionen in molekularen Netzwerken experimentell untersucht werden müssen. Solche Netzwerke wiederum definieren Prozesse, d. h. dynamische Systeme. Die erweiterte Betrachtung einzelner Moleküle in Netzwerken, und damit die Fokussierung auf Prozesse, die diese Interaktionen bestimmen, sind mit dem Begriff Systembiologie eng verbunden.

Olaf Wolkenhauer, Tom Gebhardt

Backmatter

Weitere Informationen

Premium Partner

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen. 

    Bildnachweise