Existenzielle Risiken

Click here to see this page in other languages:  English US_Flag Chinese    FrenchFrance_Flag Russian 

Ein existenzielles Risiko ist ein Risiko mit dem Potenzial, die gesamte Menschheit auszulöschen oder zumindest große Teile der globalen Bevölkerung zu töten, wonach den Überlebenden keine ausreichenden Mittel blieben, um die Gesellschaft nach heutigen Lebensstandards wiederaufzubauen.

Bis vor kurzem waren die meisten existenziellen Risiken (und die weniger extremen, bekannt als globale Katastrophenrisiken) natürlichen Ursprungs, zum Beispiel der Ausbruch von Supervulkanen und Asteroideneinschläge. Solche Ereignisse haben vor Millionen von Jahren Massensterben verursacht. Die technologischen Fortschritte des vergangenen Jahrhunderts haben uns jedoch neben großen Errungenschaften auch die Möglichkeiten für neue existenzielle Risiken eröffnet.

Der Atomkrieg war das erste von Menschen erschaffene globale Katastrophenrisiko. Ein nuklearer Weltkrieg könnte einen Großteil der menschlichen Bevölkerung auslöschen. Dank fortschreitender Forschung über atomare Bedrohungen fanden Wissenschaftler heraus, dass der folgende nukleare Winter sogar noch tödlicher werden könnte als der Krieg selbst. Die meisten Menschen auf der Erde könnten so umkommen.

Biotechnologien und Genetik wecken oft genauso viele Ängste wie Hoffnungen. Die Menschen sorgen sich um potenziell negative Auswirkungen von Klonen, Gen Splicing, Genantrieb, und anderen Fortschritten auf diesen Gebieten. Biotechnologie bietet unglaubliche Möglichkeiten Leben zu retten und zu verbessern, aber gleichzeitig erhöhen sich mit ihr existenzielle Risiken in Verbindung mit künstlich erzeugten Pandemien und dem Verlust genetischer Vielfalt.

Künstliche Intelligenz (KI, engl. artificial intelligence, AI) wurde lange als Science-Fiction abgetan, aber in den letzten Jahren wurden auf diesem Gebiet bemerkenswerte Fortschritte gemacht. Genau wie bei der Biotechnologie gibt es mit KI große Chancen, Leben zu verbessern. Aber wenn diese Technologie nicht sicher entwickelt wird, besteht die Möglichkeit, dass jemand absichtlich oder unabsichtlich ein KI-System erschafft, das die Menschheit vernichten könnte.

Klimawandel ist eine wachsende Sorge, die viele Menschen und Regierungen auf der ganzen Welt beschäftigt. Wenn die globale Durchschnittstemperatur steigt, könnten Dürren, Überflutungen, extreme Stürme und andere Wetterkatastrophen zur Norm werden. Die daraus entstehende Knappheit von Nahrung, Wasser und Lebensräumen könnte ökonomische Krisen und Kriege auslösen. Der Klimawandel selbst ist wahrscheinlich kein existenzielles Risiko, aber das aus ihm folgende Chaos könnte die Wahrscheinlichkeiten von Atomkriegen, Pandemien und anderen Katastrophen erhöhen.

In den Anfangsjahren der Eisenbahn, waren viele besorgt, dass der menschliche Körper keine Geschwindigkeiten über 50 km/h aushalten könne. Die Menschen zögerten, die ersten Telefone zu benutzen, aus Angst vor Stromschlägen oder weil diese Geräte Instrumente des Teufels sein könnten. Ähnliche düstere Befürchtungen gab es wegen Flugzeugen, Herztransplantationen und dem vermeintlichen Millennium-Bug Y2K, um nur einige Angstmacher zu nennen. Wir hoffen, dass sich die Sorgen über manche der hier genannten Technologien als ähnlich unbegründet herausstellen werden, allerdings können wir dies nur durch Aufklärung, Forschung und Handeln sicherstellen. Wir Menschen sollten nicht als passive Beobachter fragen, was in der Zukunft passieren wird; wir haben selber die Macht, unser eigenes Schicksal zu bestimmen.

The Latest from the Future of Life Institute
Subscribe To Our Newsletter

Stay up to date with our grant announcements, new podcast episodes and more.

Invalid email address
You can unsubscribe at any time.