Wenn Sie daran denken, sich in einem zukünftigen Paradies kryogenisch suspendieren und erwecken zu lassen, möchten Sie vielleicht Ihren Wecker auf spätestens 1.000 Jahre stellen. Laut BBC , so viel wird Stephen Hawking in der . sagen 2016 Reith-Vorlesungen – eine von der BBC organisierte Vortragsreihe, die sich mit den großen Herausforderungen der Menschheit beschäftigt.
In Hawkings erstem Vortrag, der sein wird Ausstrahlung am 26. Februar Auf der BBC behandelt Hawking das Thema Schwarze Löcher, ob sie Haare haben oder nicht, und andere Konzepte zu diesen verwirrenden Objekten.
Aber am Ende des Vortrags beantwortete er die Fragen des Publikums nach der Fähigkeit der Menschheit zur Selbstzerstörung. Hawking sagte, dass 1000 Jahre alles sein könnten, bis wir aufgrund unserer eigenen wissenschaftlichen und technologischen Fortschritte sterben.
Da wir sowohl wissenschaftlich als auch technologisch immer weiter fortgeschritten sind, werden wir laut Hawking „neue Wege schaffen, wie Dinge schief gehen können“. Hawking erwähnte einen Atomkrieg, die globale Erwärmung und gentechnisch veränderte Viren als Dinge, die unser Aussterben verursachen könnten.
Atomkrieg
Durch das Kalter Krieg , die Vernichtung durch unsere eigenen Atomwaffen war eine echte Gefahr. Die Bedrohung durch einen nuklearen Start als Reaktion auf eine reale oder wahrgenommene Bedrohung war real. Die daraus resultierende Vergeltung und Gegenvergeltung war ein Risiko, dem jeder auf dem Planeten ausgesetzt war. Und die beiden Supermächte hatten genug Sprengköpfe zwischen ihnen, um möglicherweise das Leben auf der Erde auszulöschen.
Eine nukleare Explosion kann Ihren ganzen Tag ruinieren. Bild: Andrew Kuznetsov, CC von 2.0
Die USA und die UdSSR haben in den letzten Jahrzehnten ihre Bestände an Atomwaffen reduziert, aber es gibt immer noch genug Sprengköpfe, um uns auszulöschen. Die Möglichkeit, dass ein Schurkenstaat wie Nordkorea eine nukleare Konfrontation auslöst, ist immer noch sehr real. Wenn Hawkings 1.000-jähriger Zeitrahmen abgelaufen ist, haben wir entweder dieses Problem gelöst oder wir werden nicht hier sein.
Globale Erwärmung
Die Erde wird wärmer, und obwohl sich die Erde in ihrer Geschichte viele Male erwärmt und abgekühlt hat, haben wir dieses Mal nur wir selbst schuld . Seit der Industriellen Revolution reichern wir unsere Atmosphäre versehentlich mit Kohlenstoff an. All dieser Kohlenstoff bildet eine schöne Isolierschicht um die Erde, da er Wärme einfängt, die normalerweise in den Weltraum abgestrahlt würde. Wenn wir einige der „ Kipppunkte “, über die Wissenschaftler sprechen, wie das Schmelzen des Permafrostbodens und die anschließende Freisetzung von Methan, könnten wir in echten Schwierigkeiten stecken.
Globale mittlere Oberflächentemperatur. Bild: NASA, Goddard Institute for Space Studies
Unterschiedlich Klimatechnik Es wurden Schemata ausgedacht, um der globalen Erwärmung entgegenzuwirken, wie das Aussäen der oberen Atmosphäre mit reflektierenden Molekülen und Flotten von Schiffen rund um den Äquator, die Meeresnebel in die Luft sprühen, um die Sonne teilweise zu blockieren. Oder sogar Kohlenstoff aus der Atmosphäre zu extrahieren. Wie realistisch oder effektiv diese Gegenmaßnahmen sein könnten, ist jedoch nicht klar.
Gentechnisch veränderte Viren
Als Waffe kann ein Virus billig und effektiv sein. In der Vergangenheit gab es Programme zur Entwicklung biologischer Waffen. Die Versuchung, genetische Wissenschaften zu verwenden, um extrem tödliche Viren zu erschaffen, könnte sich als zu groß erweisen.
Pocken und Virales hämorrhagisches Fieber zu Waffen gemacht wurden, und wenn unsere genetischen Manipulationsfähigkeiten wachsen, ist es möglich oder sogar wahrscheinlich, dass irgendwo jemand versucht, noch gefährlichere Viruswaffen zu entwickeln. Vielleicht tun sie es gerade.
Es gibt ein Verbot von viralen Waffen, genannt die Übereinkommen über biologische und Toxinwaffen 1972 unterzeichnet. Aber nicht jeder hat es unterschrieben.
Künstliche Intelligenz
Hawking hat KI in seinem Vortrag nie erwähnt, aber es passt in die Diskussion. Wenn unsere Maschinen immer intelligenter werden, werden sie daraus schließen, dass die einzige Überlebenschance darin besteht, die menschliche Bevölkerung zu entfernen oder zu reduzieren? Wer weiß. Aber Hawking selbst, sowie andere Denker , haben uns davor gewarnt, dass unsere Errungenschaften in der KI eine katastrophale Kehrseite haben könnten.
Ein fahrerloses Auto von Google: Sieht harmlos aus, oder? Bild: Michael Shick http://creativecommons.org/licenses/by-sa/4.0
Wir mögen die Idee von fahrerlosen Autos und Computerassistenten wie SIRI. Aber wie uns zahlreiche Science-Fiction-Geschichten gewarnt haben ( Skynet in der Terminator-Serie, die mein Favorit ist), kann es ein kleiner Schritt sein von einer sehr hilfreichen KI, die uns schützt und unser Leben einfacher macht, zu einer KI, die entscheidet, dass die Existenz ohne uns lästige Menschen viel besser wäre.
Die Technologische Singularität ist der Punkt, an dem künstlich intelligente Systeme „aufwachen“ und – mehr oder weniger – bewusst werden. Diese KI-Maschinen würden beginnen, sich rekursiv zu verbessern oder bessere und intelligentere Maschinen zu bauen. Zu diesem Zeitpunkt wären sie eine ernsthafte Gefahr für die Menschheit.
Drohnen sind derzeit sehr beliebt. Sie sind zu Weihnachten aus den Regalen geflogen und ein tolles Spielzeug. Aber sobald wir Drohnen mit primitiver, aber effektiver KI sehen, die auf dem Eigentum der Reichen patrouillieren, wird es Zeit, nervös zu werden.
Das Aussterben muss möglicherweise warten
Wenn unsere wissenschaftlichen und technologischen Fähigkeiten wachsen, werden wir definitiv neuen Bedrohungen ausgesetzt sein, genau wie Hawking sagt. Aber derselbe Fortschritt kann uns auch schützen oder widerstandsfähiger machen. Hawking sagt: „Wir werden nicht aufhören, Fortschritte zu machen oder sie rückgängig zu machen, also müssen wir die Gefahren erkennen und sie kontrollieren. Ich bin Optimist und glaube, dass wir das können.“ Wir auch.
Vielleicht schaffen Sie es doch, die Schlummertaste zu drücken.
Originalquelle: BBC News