Es gibt eine neue Erklärung für die Frage, warum der Mensch Laktose verdauen kann. Eine internationale Gemeinschaft von Forschern widerlegt damit die alte Erklärung: Die Laktosetoleranz entstand nicht, weil sie dem Menschen erlaubte, mehr Milch zu konsumieren.
Wissenschaftler der University of Bristol, des University College London (UCL) und der Johannes Gutenberg Universität Mainz (JGU) widerlegen in „Nature“ - zusammen mit Kollegen aus 20 anderen Ländern - langjährige Annahmen darüber, warum der Mensch als Erwachsener die Fähigkeit entwickelt hat, Laktose zu verdauen. Durch die Kartierung der Muster des Milchkonsums in den letzten 9.000 Jahren, die Untersuchung der britischen Biobank und die Kombination alter DNA-, Radiokohlenstoff- und archäologischer Daten mit Hilfe neuer Computermodellierungstechniken konnte das Team zeigen, dass Hungersnöte und die Belastung durch Krankheitserreger die Entwicklung der Laktosetoleranz deutlich besser erklären.
Frühere genetische Studien - insbesondere solche, bei denen DNA aus prähistorischen menschlichen Überresten verwendet wurde - zeigen, dass die Laktasepersistenz (also der Erhalt der Laktasebildung bis ins Erwachsenenalter) das vorteilhafteste einzelne Genmerkmal war, das sich in Europa (zumindest) in den letzten 10.000 Jahren entwickelt hat. Heute ist etwa ein Drittel der Erwachsenen in der Welt laktasepersistent, kann also Laktose verdauen. „Die genetische Variante der Laktasepersistenz wurde durch eine Art turbogeladene natürliche Selektion auf eine hohe Frequenz gebracht“, so der Evolutionsgenetiker Prof. Dr. Mark Thomas (London), einer der Autoren der Studie. Allerdings, so ergänzt er: „Das Problem ist, dass eine solch starke natürliche Selektion schwer erklärbar ist“.
Erste Laktosepersistenz vor 5.000 Jahren
„Um zu verstehen, wie sich die Laktasepersistenz entwickelt hat, müssen wir zunächst wissen, wo und wann die Menschen Milch konsumiert haben“, so Prof. Dr. Richard Evershed (Bristol), Hauptautor der Studie. In dieser Studie stellten sie eine in der Größe noch nie dagewesene Datenbank mit fast 7.000 organischen Rückständen aus archäologischen Keramikgefäßen zusammen. Daraus geht hervor, dass Milch in der europäischen Vorgeschichte seit den Anfängen der Landwirtschaft vor fast 9.000 Jahren in großem Umfang verwendet wurde, wobei die Verwendung in verschiedenen Regionen zu unterschiedlichen Zeiten zu- und abnahm.
Es zeigte sich, dass Laktasepersistenz erstmals vor etwa 5.000 Jahren auftrat. Vor 3.000 Jahren war sie bereits in nennenswerter Häufigkeit vorhanden und ist heute besonders in Nordeuropa sehr häufig. Mit einem neuen statistischen Ansatz wurde dann untersucht, ob Veränderungen im Milchkonsum im Laufe der Zeit die natürliche Selektion für Laktasepersistenz erklären könnten - bemerkenswerterweise fand sich dabei kein Zusammenhang.
Wenn aber nicht das Ausmaß des Milchkonsums die Entwicklung der Laktasepersistenz vorantrieb, was dann? Eine Teilantwort gab Prof. Dr. George Davey Smith (Bristol), der die Daten der britischen Biobank untersuchte, die genetische und medizinische Daten von mehr als 300.000 lebenden Personen enthält. Er fand nur minimale Unterschiede im Milchtrinkverhalten zwischen genetisch laktase-persistenten und nicht-persistenten Personen. Das heißt: Die überwiegende Mehrheit der Menschen, die genetisch gesehen keine Laktasepersistenz aufweisen, verspüren keine langfristigen negativen gesundheitlichen Auswirkungen von Milchkonsum. Neben dem bloßen Vorhandensein von Milch in der prähistorischen Ernährung müssen also bisher unbekannte Faktoren für den raschen Anstieg der Laktasepersistenz verantwortlich gewesen sein.
Selektion durch Hungersnöte
„Kurz gesagt war der Milchkonsum in Europa mindestens 9.000 Jahre lang weit verbreitet, und gesunde Menschen, auch solche, die keine Laktasepersistenz hatten, konnten problemlos Milch konsumieren, ohne krank zu werden. Bei Personen, die keine Laktasepersistenz aufwiesen, führte der Milchkonsum jedoch zu einer hohen Laktosekonzentration im Darm, die Flüssigkeit in den Dickdarm ziehen kann, was in Verbindung mit Durchfallerkrankungen zu Dehydrierung führen kann“, so Smith. „Ich vermutete, dass dieser Prozess zu einer hohen Sterblichkeit führte, wenn die Belastung durch Infektionskrankheiten zunahm“. Thomas stellte ähnliche Überlegungen an, wenn auch mit einem Fokus auf prähistorische Hungersnöte: „Wenn man gesund, aber nicht laktasepersistent ist und viel Milch trinkt, kann man Krämpfe bekommen, vielleicht auch Durchfall und Blähungen. Das ist nicht angenehm, aber auch nicht tödlich. Wenn Sie jedoch stark unterernährt sind und Durchfall haben, dann haben Sie lebensbedrohliche Probleme. Und vielleicht ist das die beschleunigte natürliche Auslese, nach der wir suchen. Wenn ihre Ernten ausfielen, konsumierten prähistorische Menschen eher unfermentierte Milch mit hohem Laktosegehalt - genau dann, wenn sie es nicht tun sollten“.
Um diese Hypothesen zu testen, hat Thomas‘ Team Indikatoren für vergangene Hungersnöte und die Belastung durch Krankheitserreger in ihre neue statistische Methode integriert. Dr. Yoan Diekmann (Mainz) dazu: „Die Ergebnisse stützten eindeutig beide Erklärungen - die Laktasepersistenz-Genvariante war einer stärkeren natürlichen Selektion unterworfen, wenn es Anzeichen für größere Hungersnöte und mehr Krankheitserreger gab“.
Pressemitteilung Johannes Gutenberg-Universität Mainz, Juli 2022
Evershed RP et al.; Nature. 2022 Jul 27 (DOI 10.1038/s41586-022-05010-7).