Die Fünf Schwerwiegendsten Bedrohungen Für Die Existenz Der Menschheit - Alternative Ansicht

Inhaltsverzeichnis:

Die Fünf Schwerwiegendsten Bedrohungen Für Die Existenz Der Menschheit - Alternative Ansicht
Die Fünf Schwerwiegendsten Bedrohungen Für Die Existenz Der Menschheit - Alternative Ansicht

Video: Die Fünf Schwerwiegendsten Bedrohungen Für Die Existenz Der Menschheit - Alternative Ansicht

Video: Die Fünf Schwerwiegendsten Bedrohungen Für Die Existenz Der Menschheit - Alternative Ansicht
Video: Kontra Evolution Dinosaurier und Menschen lebten zusammen youtube original 2024, Kann
Anonim

Angesichts des Rummels um die gegenwärtigen "Krisen" der Menschheit vergessen wir die große Anzahl von Generationen, die uns hoffentlich ersetzen werden. Wir sprechen nicht über jene Menschen, die 200 Jahre nach uns leben werden, sondern über jene, die tausend oder zehntausend Jahre nach uns leben werden.

Ich benutze das Wort "Hoffnung", weil wir mit Risiken konfrontiert sind, die als existenziell bezeichnet werden und die die Menschheit zerstören können. Diese Risiken sind nicht nur mit Katastrophen größeren Ausmaßes verbunden, sondern auch mit Katastrophen, die die Geschichte beenden können.

Allerdings ignoriert nicht jeder die ferne Zukunft. Mystiker wie Nostradamus versuchen regelmäßig, ein Datum für das Ende der Welt zu bestimmen. H. G. Wells versuchte, eine Wissenschaft der Vorhersage zu entwickeln, und es ist bekannt, dass er die Zukunft der Menschheit in seinem Buch The Time Machine beschrieben hat. Andere Autoren haben sich andere Versionen der fernen Zukunft ausgedacht, um zu warnen, zu unterhalten oder sich etwas auszudenken.

Aber selbst wenn all diese Pioniere und Futuristen nicht über die Zukunft der Menschheit nachdenken würden, würde das Ergebnis immer noch dasselbe bleiben. Es gab nicht viel, was der Mensch zuvor hätte tun können, um uns vor einer existenziellen Krise zu retten oder sie sogar zu verursachen.

Heute sind wir in einer privilegierteren Position. Menschliche Aktivitäten prägen allmählich die Zukunft unseres Planeten. Obwohl wir noch weit davon entfernt sind, Katastrophen zu kontrollieren, entwickeln wir bereits Technologien, die ihre Folgen abmildern oder zumindest etwas in dieser Angelegenheit tun können.

Die Zukunft ist unvollkommen

Diese Risiken sind jedoch noch nicht gut verstanden. Es gibt Ohnmacht und Fatalismus in Bezug auf die aufgeführten Probleme. Seit Jahrtausenden wird über Apokalypsen gesprochen, aber nur wenige haben versucht, sie zu verhindern. Darüber hinaus sind die Menschen nicht so stark in Bezug auf Probleme, die noch nicht aufgetreten sind (insbesondere aufgrund der Auswirkungen der Verfügbarkeitsheuristik) - die Tendenz, die Wahrscheinlichkeit dieser Ereignisse, mit denen wir vertraut sind, zu überschätzen und die Ereignisse, die wir kennen, zu unterschätzen wir können uns nicht sofort erinnern).

Werbevideo:

Wenn die Menschheit aufhört zu existieren, wird diese Art von Verlust mindestens dem Verlust aller lebenden Individuen sowie dem Zusammenbruch aller ihrer Ziele entsprechen. In der Realität dürfte der Verlust jedoch viel größer sein. Das Verschwinden einer Person bedeutet den Verlust der von früheren Generationen geschaffenen Bedeutung, den Verlust des Lebens aller zukünftigen Generationen (und die Anzahl zukünftiger Leben kann astronomisch sein) sowie all jener Werte, die sie wahrscheinlich schaffen könnten.

Wenn Bewusstsein und Vernunft nicht mehr da sind, kann dies bedeuten, dass der Wert selbst im Universum nicht mehr existiert. Dies ist ein sehr starker moralischer Grund, unermüdlich daran zu arbeiten, existenzielle Bedrohungen zu verhindern. Und auf diesem Weg dürfen wir keinen einzigen Fehler machen.

Image
Image

Vor diesem Hintergrund habe ich die fünf schwerwiegendsten Bedrohungen für die menschliche Existenz ausgewählt. Einige zusätzliche Umstände sollten jedoch berücksichtigt werden, da diese Liste noch nicht endgültig ist.

In den letzten Jahrhunderten haben wir neue existenzielle Risiken für uns entdeckt oder geschaffen: In den frühen 1970er Jahren wurden Supervulkane entdeckt, und vor dem Manhattan-Projekt war ein Atomkrieg unmöglich. Daher sollten wir erwarten, dass andere Bedrohungen auftreten. Darüber hinaus können einige der Risiken, die heute ernst zu sein scheinen, mit der Anhäufung von Wissen verschwinden. Die Wahrscheinlichkeit bestimmter Ereignisse ändert sich ebenfalls im Laufe der Zeit. Manchmal geschieht dies, weil wir uns Sorgen über bestehende Risiken machen und deren Ursachen ansprechen.

Schließlich bedeutet die Tatsache, dass etwas möglich und potenziell riskant ist, nicht, dass es sich lohnt, sich Sorgen zu machen. Es gibt Risiken, mit denen wir überhaupt nichts anfangen können - zum Beispiel die Flüsse von Gammastrahlen, die durch die Explosion von Galaxien entstehen. Wenn wir jedoch herausfinden, dass wir in der Lage sind, etwas zu tun, ändern sich die Prioritäten. So wurde zum Beispiel mit der Verbesserung der sanitären Bedingungen, dem Aufkommen von Impfstoffen und Antibiotika die Pest nicht als Manifestation göttlicher Bestrafung wahrgenommen, sondern als Folge des schlechten Gesundheitszustands.

1. Atomkrieg

Während bisher nur zwei Atombomben eingesetzt wurden - in Hiroshima und Nagasaki während des Zweiten Weltkriegs - und die Lagerbestände von ihren Gipfeln im Kalten Krieg zurückgegangen sind, wäre es ein Fehler zu glauben, dass ein Atomkrieg unmöglich ist. Tatsächlich scheint sie nicht unglaublich zu sein.

Image
Image

Die Kubakrise stand kurz vor einer nuklearen Krise. Wenn wir davon ausgehen, dass eine solche Krise alle 69 Jahre auftritt und eine von drei Chancen besteht, dass sie zum Ausbruch eines Atomkrieges führen könnte, steigt die Wahrscheinlichkeit einer solchen Katastrophe und der entsprechende Koeffizient beträgt 1 zu 200 pro Jahr.

Erschwerend kommt hinzu, dass die Kubakrise nur der bekannteste Fall ist. Die Geschichte der sowjetisch-amerikanischen nuklearen Abschreckung ist reich an Krisensituationen und gefährlichen Fehlern. Die tatsächliche Wahrscheinlichkeit hängt nicht mehr von internationalen Spannungen ab. Es ist jedoch unwahrscheinlich, dass die Wahrscheinlichkeit eines nuklearen Konflikts unter einem Koeffizienten von 1 zu 1000 pro Jahr liegt.

Ein umfassender Atomkrieg zwischen den Großmächten würde zum Zeitpunkt des Austauschs von Streiks oder infolge ihrer Folgen zum Tod von Hunderten Millionen Menschen führen - dies wäre eine undenkbare Katastrophe. Für das existenzielle Risiko reicht dies jedoch immer noch nicht aus.

Gleiches gilt für die Risiken, die mit den Folgen nuklearer Explosionen verbunden sind - sie sind oft übertrieben. Lokal sind sie tödlich, aber global sind sie ein relativ begrenztes Problem. Kobaltbomben wurden als hypothetische Weltuntergangswaffe vorgeschlagen, die aufgrund der mit ihrer Verwendung verbundenen Konsequenzen alles zerstören kann. In der Praxis sind sie jedoch sehr schwierig herzustellen und teuer. Und ihre Schaffung ist tatsächlich unmöglich.

Die wirkliche Bedrohung ist der nukleare Winter - dh Rußpartikel, die in die Stratosphäre aufsteigen und dadurch langfristig einen Temperaturabfall und eine Dehydrierung des Planeten verursachen können. Aktuelle Klimasimulationen zeigen, dass dies es unmöglich machen würde, einen Großteil des Planeten für viele Jahre zu bewirtschaften.

Wenn dieses Szenario eintritt, werden Milliarden von Menschen an Hunger sterben und eine kleine Anzahl von Überlebenden wird anderen Bedrohungen, einschließlich Krankheiten, ausgesetzt sein. Die Hauptunsicherheit besteht darin, wie sich die in den Himmel aufsteigenden Rußpartikel verhalten: Abhängig von ihrer Zusammensetzung kann das Ergebnis unterschiedlich sein, und wir haben bisher keine zuverlässige Methode, um diese Art von Konsequenzen zu messen.

2. Pandemien durch Bioengineering

Natürliche Pandemien haben mehr Todesfälle als Kriege verursacht. Es ist jedoch unwahrscheinlich, dass natürliche Pandemien eine existenzielle Bedrohung darstellen. Normalerweise gibt es Menschen, die gegen Krankheitserreger immun sind, und die Nachkommen der Überlebenden werden noch besser geschützt.

Image
Image

Die Evolution unterstützt auch nicht besonders jene Parasiten, die Wirtsorganismen zerstören, weshalb sich die Syphilis, wie sie sich in Europa ausbreitet, von einem bösartigen Killer und einer chronischen Krankheit abgewandt hat.

Leider sind wir jetzt selbst in der Lage, Krankheiten zerstörerischer zu machen. Eines der bekanntesten Beispiele ist, wie der Einschluss eines zusätzlichen Gens in Mauspocken - die Mausvariante der Pocken - es viel lebensbedrohlicher machte und bereits geimpfte Personen infizieren konnte. Jüngste Arbeiten mit der Aviären Influenza haben gezeigt, dass die Infektiosität der Krankheit gezielt erhöht werden kann.

Derzeit ist das Risiko, dass jemand absichtlich eine böswillige Infektion verbreitet, vernachlässigbar. Da sich die Biotechnologie jedoch verbessert und billiger wird, werden immer mehr Gruppen in der Lage sein, die Krankheit noch gefährlicher zu machen.

Der größte Teil der Arbeit auf dem Gebiet der biologischen Waffen wird von Staaten ausgeführt, die etwas kontrollieren wollen, da die Zerstörung der Menschheit militärisch nicht sinnvoll ist. Es wird jedoch immer Leute geben, die hereinkommen, um einige Dinge zu tun, nur weil sie dazu in der Lage sind. Andere haben vielleicht höhere Ziele.

Zum Beispiel versuchten Mitglieder der religiösen Gruppe Aum Shinrikyo, den Beginn der Apokalypse durch den Einsatz biologischer Waffen zu beschleunigen, nicht nur durch ihren erfolgreicheren Angriff mit Nervengas. Einige Menschen glauben, dass sich die Situation auf der Erde verbessern wird, wenn keine Menschen mehr darauf sind, und so weiter.

Die Zahl der Todesfälle infolge des Einsatzes biologischer Waffen und epidemischer Krankheiten lässt vermuten, dass sie sich nach einem Machtgesetz entwickeln - in vielen Fällen gibt es nur wenige Opfer, in wenigen Fällen jedoch viele Opfer. Angesichts der derzeit verfügbaren Daten scheint das Risiko einer globalen Pandemie durch Bioterrorismus gering zu sein.

Dies gilt jedoch nur für den Bioterrorismus: Regierungen haben deutlich mehr Menschen mit biologischen Waffen getötet als Bioterroristen (etwa 400.000 Menschen wurden während des Zweiten Weltkriegs Opfer des japanischen Programms zur biologischen Kriegsführung). Die Technologie wird immer leistungsfähiger und macht es einfacher, in Zukunft noch mehr Krankheitserreger zu produzieren.

3. Superintelligenz

Intelligenz ist mächtig. Die geringfügige Zunahme der Problemlösung und der Gruppenkoordination ist der Grund, warum der Rest der Affenarten arbeitslos ist. Gegenwärtig hängt ihre Existenz von den Entscheidungen der Person ab und nicht von dem, was sie tut.

Image
Image

Klug zu sein ist eine echte Exzellenz für Menschen und Organisationen. Daher werden große Anstrengungen unternommen, um unsere individuelle und kollektive Intelligenz zu verbessern, von Medikamenten zur Verbesserung der kognitiven Fähigkeiten bis hin zur Entwicklung von Programmen im Zusammenhang mit künstlicher Intelligenz.

Das Problem ist, dass intelligente Systeme beim Erreichen ihrer Ziele gute Leistungen erbringen. Wenn diese Ziele jedoch schlecht definiert sind, können sie ihre Kraft einsetzen, um ihre katastrophalen Ziele auf clevere Weise zu erreichen. Es gibt keinen Grund zu der Annahme, dass der Intellekt selbst in der Lage ist, etwas oder jemanden dazu zu bringen, korrekt und moralisch zu handeln. Tatsächlich besteht die Möglichkeit, dass einige Arten von superintelligenten Systemen moralischen Regeln trotzen, selbst wenn sie möglich wären.

Noch beunruhigender ist die Tatsache, dass wir beim Versuch, der künstlichen Intelligenz Dinge zu erklären, mit tiefen praktischen und philosophischen Problemen konfrontiert sind. Menschliche Werte sind vage, komplexe Themen, die wir noch nicht gut definieren können, und selbst wenn wir könnten, könnten wir möglicherweise nicht die vollständigen Auswirkungen dessen verstehen, was wir zu schaffen versuchen.

Softwarebasierte Intelligenz kann die Lücke zum Menschen sehr schnell schließen und Maschinenfähigkeiten können gefährlich werden. Das Problem ist, dass künstliche Intelligenz auf unterschiedliche Weise mit biologischer Intelligenz in Beziehung stehen kann: Sie kann auf schnelleren Computern schneller ausgeführt werden, Teile davon können sich auf mehr Computern befinden, einige Versionen davon können im laufenden Betrieb getestet und aktualisiert werden und Es besteht die Möglichkeit, neue Algorithmen einzuführen, die die Leistung erheblich steigern können.

Heutzutage gehen viele davon aus, dass ein "Durchbruch in der Intelligenz" wahrscheinlich ist, wenn die Programme selbst über ausreichende Kapazitäten verfügen, um bessere Programme zu produzieren. Wenn diese Art von Sprung auftritt, gibt es einen großen Unterschied zwischen dem intelligenten System (oder den Leuten, die ihm sagen, was zu tun ist) und dem Rest der Welt. Eine solche Situation könnte sehr wohl zu einer Katastrophe führen, wenn die Ziele nicht richtig gesetzt werden.

Das Ungewöhnliche an der Superintelligenz ist, dass wir nicht wissen, ob ein schneller und kraftvoller Durchbruch bei der Entwicklung der Intelligenz möglich ist: Vielleicht verbessert sich unsere derzeitige Zivilisation insgesamt am schnellsten. Es gibt jedoch genügend Grund zu der Annahme, dass einige Technologien in der Lage sind, bestimmte Dinge viel schneller voranzutreiben als die Möglichkeiten, ihre Kontrolle durch die moderne Gesellschaft zu verbessern.

Darüber hinaus können wir noch nicht verstehen, wie gefährlich einige Formen der Superintelligenz sein können und wie Minderungsstrategien funktionieren werden. Es ist sehr schwierig, über zukünftige Technologien zu spekulieren, die wir noch nicht haben, oder über Informationen, die über das hinausgehen, was wir haben. Unter den aufgeführten Risiken hat dies die meisten Chancen, entweder wirklich groß zu werden oder nur ein Trugbild zu bleiben.

Im Allgemeinen wurde dieser Bereich noch nicht ausreichend untersucht, was überraschend ist. Selbst in den 1950er und 1960er Jahren waren die Menschen völlig davon überzeugt, dass Superintelligenz „im Laufe einer Generation“geschaffen werden könnte, aber zu diesem Zeitpunkt wurden Sicherheitsfragen nicht gebührend berücksichtigt. Vielleicht haben die Menschen ihre Vorhersagen dann einfach nicht ernst genommen und sie höchstwahrscheinlich in ferner Zukunft als Problem angesehen.

4. Nanotechnologie

Bei der Nanotechnologie geht es darum, Materie mit atomarer oder molekularer Präzision zu kontrollieren. An sich ist es nicht gefährlich und kann im Gegenteil für viele Zwecke eine sehr gute Nachricht sein. Das Problem ist, dass wie in der Biotechnologie wachsende Möglichkeiten auch das Missbrauchspotenzial erhöhen, gegen das es sehr schwierig ist, sich zu verteidigen.

Image
Image

Das große Problem ist nicht die berüchtigte "graue Gänsehaut" selbstreplizierender Nanomaschinen, die alles verschlingen. Dies erfordert die Schaffung sehr hoch entwickelter Geräte. Es ist schwierig, eine Maschine zu schaffen, die sich selbst reproduzieren kann: Die Biologie ist per Definition bei dieser Art von Aufgabe besser. Vielleicht werden einige Maniacs dazu in der Lage sein, aber es gibt zugänglichere Früchte auf dem Baum der zerstörerischen Technologien.

Das offensichtlichste Risiko besteht darin, dass die automatische Präzisionsfertigung ideal für die billige Herstellung von Waffen ist. In einer Welt, in der viele Regierungen die Möglichkeit haben werden, eine große Anzahl autonomer oder halbautonomer Waffensysteme zu "drucken" (einschließlich der Möglichkeit, ihre Produktion zu steigern), kann das Wettrüsten sehr intensiv werden - und infolgedessen die Instabilität erhöhen, und daher kann es sehr verlockend sein, einen Erstschlag zu starten bis zu dem Moment, in dem der Feind einen großen Vorteil bekommt.

Waffen können auch sehr klein und sehr genau sein: Sie können "intelligentes Gift" sein, das nicht nur als Nervengas fungiert, sondern auch ihre Opfer auswählt, oder allgegenwärtige Mikroroboter (Mückenbots), Miniaturüberwachungssysteme, um die Bevölkerung im Gehorsam zu halten - das alles ist durchaus möglich. Darüber hinaus können Atomwaffen und Einrichtungen, die das Klima beeinflussen, in die Hände von Eindringlingen fallen.

Wir können die Wahrscheinlichkeit eines existenziellen Risikos für die zukünftige Nanotechnologie nicht abschätzen, aber anscheinend können sie ziemlich destruktiv sein, nur weil sie in der Lage sind, alles zu geben, was wir wollen.

5. Geheimnisvoll unbekannt

Die alarmierendste Möglichkeit ist, dass es etwas Tödliches auf der Welt gibt, aber wir wissen nicht, was es ist.

Image
Image

Die Stille im Himmel kann ein Beweis dafür sein. Liegt die Abwesenheit von Außerirdischen an der Tatsache, dass Leben und Intelligenz sehr selten sind, oder daran, dass intelligentes Leben dazu neigt, zerstört zu werden? Wenn es einen zukünftigen großen Filter gibt, sollten andere Zivilisationen ihn bemerkt haben, aber selbst das hat nicht geholfen.

Was auch immer eine solche Bedrohung sein mag, sie wäre fast unvermeidlich, selbst wenn Sie sich ihrer Existenz bewusst wären, unabhängig davon, wer Sie sind oder was Sie wirklich sind. Wir wissen nichts über diese Art von Bedrohung (keine der oben genannten Bedrohungen funktioniert auf diese Weise), aber sie können existieren.

Beachten Sie, dass das Vorhandensein von etwas Unbekanntem nicht bedeutet, dass wir nicht darüber nachdenken können. Ein Artikel von Max Tegmark und Nick Bostrom zeigt, dass eine bestimmte Reihe von Risiken ein Verhältnis von weniger als einer von einer Milliarde pro Jahr haben sollte, basierend auf dem relativen Alter der Erde.

Es kann Sie überraschen, dass Klimawandel und Meteoriteneinschläge nicht auf dieser Liste stehen. Es ist unwahrscheinlich, dass der Klimawandel, so schrecklich er auch ist, den gesamten Planeten unbewohnbar macht (aber er könnte zusätzliche Bedrohungen darstellen, wenn sich unsere Verteidigung als unwirksam erweist). Meteore können uns natürlich vom Erdboden abwischen, aber in diesem Fall müssen wir sehr große Verlierer sein.

Normalerweise gibt es eine bestimmte Art von Säugetieren seit etwa einer Million Jahren. Somit beträgt die natürliche Hauptaussterberate ungefähr eins zu einer Million pro Jahr. Dies ist deutlich weniger als das Risiko eines Atomkrieges, der 70 Jahre später immer noch die größte Bedrohung für unseren Fortbestand darstellt.

Verfügbarkeitsheuristiken zwingen uns, die in den Medien häufig diskutierten Risiken zu überschätzen und die Risiken herunterzuspielen, denen die Menschheit noch nicht begegnet ist. Wenn wir auch nach einer Million Jahren weiter existieren wollen, müssen wir diese Situation korrigieren.

Anders Sandberg

Populärwissenschaft

Empfohlen: