Dem brillanten Verstand von Stephen Hawking war es im irdischen Hier und Jetzt oftmals zu öde. Doch nicht nur abstrakte Schwarze Löcher, der Urknall und die Relativitätstheorie beschäftigten den Astrophysiker. Hawking machte sich auch seine Sorgen um die Zukunft der Menschheit. Die Ideen, die Theorien, die er daraus folgerte, machten ihn populär – und sie faszinierten viele Menschen. Wir zeigen einige der beeindruckendsten Gedankengänge des im März verstorbenen Superhirns.
Stephen Hawkings Prognosen sprachen nicht unbedingt für die Menschheit
Geht es um die Zukunft der Menschheit, hielt Stephen Hawking nicht die besten Stücke auf seine Spezies. Zwar räumte er uns in bestimmten Bereichen noch Chancen ein, dennoch scheinen wir laut dem Physiker die Tendenz zur Selbstzerstörung in uns zu tragen.
1. Weltraum-Erforschung wird lebensnotwendig
Was den Fortbestand der Menschheit angeht, war Hawking nicht gerade optimistisch. Viren, Asteroiden, Nuklearwaffen und Überbevölkerung sah er als potenzielle Gefahren für das Überleben unserer Spezies an – zumindest, so lange der Mensch auf der Erde bleibt. „Die Menschheit ist verloren, wenn wir nicht die Erde verlassen“, sagte Hawking der BBC im vergangenen Jahr.
In 200 bis 500 Jahren müsse der Mensch die Erde verlassen haben, so Hawkings Theorie. Damit die Kolonialisierung des Weltraums nicht zu spät kommt, hatte er konkrete Forderungen: Bis 2025 sollten die führenden Nationen einen Menschen zum Mars geschickt und bis 2047 eine Mondbasis errichtet haben.
Untätig bleiben wollte Hawking bei der Erforschung extraterrestrischer Lebensräume nicht: Gemeinsam mit dem russischen Milliardär Jurij Milner machte er 2016 Pläne öffentlich, eine Armee winziger Raumfähren auf eine 20-jährige Reise schicken zu wollen, um das Sternsystem Alpha Centauri auszukundschaften.
2. Früher oder später werden wir Kontakt mit Aliens haben
Bei seinen gedanklichen Reisen durch die Weiten des Universums traf Hawking auch immer wieder auf Außerirdische. „In meinem mathematischen Hirn machen die Zahlen allein das Denken an Außerirdische völlig rational“, sagte Hawking 2010 in einer Dokumentation des Fernsehsenders Discovery Channel. Immer wieder machte er sich dafür stark, in der Wissenschaft eine Diskussion über außerirdisches Leben zu etablieren.
Angesichts von Milliarden von Galaxien und Abermillionen von Sternen sei es unwahrscheinlich, dass die Erde der einzige Planet sei, auf dem Leben möglich ist. Womöglich seien viele Aliens Kleinlebewesen und einfache Tiere, aber auch intelligentes Leben hielt Hawking für wahrscheinlich.
In diesem Zusammenhang warnte er immer wieder vor einer allzu naiven Kontaktaufnahme und kritisierte wiederholt Projekte, bei denen Signale ins All gesendet wurden. Hawking sagte: „Wenn uns Außerirdische jemals besuchen, wird der Ausgang, so denke ich, genauso sein wie die Landung von Christopher Columbus in Amerika, was für die Eingeborenen nicht sehr gut ausging.“
3. Genmanipulation wird Übermenschen hervorbringen
Hawking glaubte daran, dass es nicht der Mensch von heute sein wird, der sich zu den Sternen aufmacht. In einer öffentlichen Vorlesung in Bombay im Jahr 2001 vertrat er die Meinung, dass es in Zukunft einen „Übermenschen“ geben wird – von Gentechnik optimiert. „Wenn wir erst das Buch des Lebens gelesen haben, werden wir anfangen, Korrekturen vorzunehmen“, sagte er.
Trotz aller Verbote und Gesetze werde es immer wieder Neugierige geben, die der Versuchung nicht widerstehen könnten, den Menschen genetisch zu verbessern, war sich Hawking sicher. Es beginne eine „Ära, die man als Evolution per Design bezeichnen kann“.
Die Geburt eines solchen Supermenschen hätte zwar Konflikte zur Folge, so Hawking weiter, sie berge aber auch Chancen – zum Beispiel neue Erkenntnisse in der Raumfahrt. Einen Standpunkt für oder wider diese Entwicklung wollte Hawking nicht beziehen: „Ich befürworte das nicht, ich sage nur, es wird passieren, ob wir wollen oder nicht.“
Interessant ist, dass sich Hawkings Einstellung zu diesem Thema im Laufe der Jahre anscheinend geändert hat. Noch vor seinem Tod, sprach er nunmehr von gefährlichen, reichen Supermenschen, die den Rest der Menschheit zerstören könnten.
4. Zeitreisen werden real sein
Hawking war sich sicher, dass es irgendwann Zeitreisen geben wird. Wenn in ferner Zukunft ein Schiff beinahe mit Lichtgeschwindigkeit fliegen könnte, würden an Bord nur Stunden vergehen, während auf der Erde Tage ins Land ziehen. Und dass das die Menschheit schaffen würde, daran hatte Hawking keinen Zweifel.
Ein bizarres Experiment zum Thema Zeitreisen führte Hawking 2009 durch. Er plante eine Party, stellte Champagner und Buffet bereit – verschickte die Einladungen aber erst, als der Abend schon gelaufen war. „Die Einladung zur Party steht auf Papier, das viele Tausend Jahre überstehen soll. Sollten Menschen irgendwann in ferner Zukunft durch die Zeit reisen können, könnten sie sich entscheiden, der Einladung zu folgen. Sie könnten zurück in die Vergangenheit reisen und die Party stürmen“, erklärte Hawking.
Der Abend allerdings verlief eher ruhig: „Ich habe lange gewartet, aber niemand kam.“ Seine Schlussfolgerung: Reisen in die Vergangenheit sind wohl unmöglich.
Vielleicht hat sich Hawkings Prognose in der Zwischenzeit dennoch bewahrheitet. So hat ein angeblicher Zeitreisender kürzliche einen Lügendetektortest bestanden. Laut diesem war er im Jahr 8973 unterwegs. Auch Fotos anderer „Zeitreisender“, die aus der Zukunft beziehungsweise Vergangenheit stammen sollen, könnten so manchen überzeugen.
5. Künstliche Intelligenz wird die Menschheit nachhaltig verändern
Ob sich Stephen Hawking für Filme mit Arnold Schwarzenegger interessierte, ist unbekannt. Allerdings hielt er die Idee, auf der einer der bekanntesten Filme des Schauspielers basiert, für gar nicht so abwegig. Hawking befürchtete, künstliche Intelligenz könnte eines Tages die Menschheit bedrohen – genauso, wie es in der „Terminator“-Reihe passiert.
„Die Entwicklung künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist“, sagte Hawking Ende 2017 auf einer Konferenz in Lissabon. Sollten Maschinen sich irgendwann selbst verbessern können, könnten sie dem Menschen gefährlich werden und sich seiner Kontrolle entziehen. Vor diesem Hintergrund mahnte er Tech-Konzerne wie Apple, Google und Amazon, bei ihren Entwicklungen mit Vorsicht zu arbeiten. Man solle sich auf die Verbesserung der Dienste von Maschinen konzentrieren – und nicht auf die Verbesserung ihrer Intelligenz.