Besuchstage

Letztes Jahr hat „Rosetta“ bei Tschuri vorbei geschaut und Gerst auf der Raumstation ISS.

BesuchstageDieses Jahr geht es munter weiter. „New Horizons“ ist im Anflug auf Pluto, dem Zwergplaneten, der bei Abreise der Sonde noch als „vollwertiger“ Planet galt. Im Juli gibt es hoffentlich tolle Bilder.

Praktisch zeitgleich guckt „Dawn“ sich den deutlich näher gelegenen Zwergplaneten Ceres im Asteroidengürtel an, nachdem sie vor 4 Jahren schon Vesta beäugt hat.

Neben dem einen oder anderen Kometen, der als Tourist durch das innere Sonnensystem zieht, gibt es noch unscheinbarere Gesteinsbrocken, die etwas kritischer beäugt werden. Etwa 2004BL86, der just am Montag Erde/Mond genauer anschauen will. In nur 1,2 Millionen Kilometer Entfernung. Kosmisch gesehen klebt er an der Fensterscheibe.
Rein kilometertechnisch würde man sich soviel Abstand gegen diverse Klugscheißer und Dummschwätzer da draußen wünschen …

KI / Singularity

Der Begriff „Künstliche Intelligenz“ (KI) mag irreführend sein, da in einem Elektronengehirn (um mal einen altmodischen Ausdruck zu verwenden) ganz andere Prozesse ablaufen, als im Kopf von Mensch und Tier. Natürlich werden wir dem Kumpel Maschine beibringen, zum Nutzen der Menschen zu handeln, sofern er/sie dafür irgendwie sorgen kann. Doch das eigentliche Problem dürfte der „Lehrer“ sein, der einer KI beibringt, was wie zu sein hat, beziehungsweise der „Arbeitgeber“, der diese Intelligenz nutzt.

Die momentane Diskussion hat möglicherweise Internetpionier Künstliche Intelligenz - SingularityJaron Lanier mit seinem positiven Beitrag „The Myth of AI“ ausgelöst. Auf der Seite der Mahner stehen Leute wie Elon Musk oder Stephen Hawking für die KI das Ende der Menschheit bedeuten könnte. Leute wie Futurist Ray Kurzweil sehnen dagegen den Moment herbei, an dem Emotionen aus den Entscheidungen genommen werden. Als Begriff für diesen Zeitpunkt, der im nächsten viertel Jahrhundert erwartet wird, soll sich „Singularity“ etablieren.
SF-Autor David Brin legt sich nicht fest, auch wegen seines Alters, wie er sagt 😉

An sich ist die Sache mit der KI ganz einfach und unterscheidet sich im Grundsatz nicht von uns Menschen. Einkommende Daten (Input) werden verarbeitet und Entscheidungen gefällt (Process), anschließend Aktionen ausgeführt (Output). Das macht ein Schachcomputer nicht anders, ist aber mit festen Algorithmen ausgestattet, wo eine KI eben wie ein Mensch ständig dazu lernen kann, und aufgrund dessen zu einem späteren Zeitpunkt die Daten möglicherweise anders bewertet als zuvor und andere Aktionen ausführt.

Könnte eine Maschine mit KI dereinst „plötzlich“ zur Entscheidung gelangen, dass Menschen nur hinderlich sind und vernichtet werden müssen? Wie „HAL 9000“ im Film „2001“: Die Menschen haben dem „fehlerlosen“ Computer einen Fehler nachgewiesen und misstrauen ihm, woraufhin er das Missionsziel durch sie gefährdet sieht und sie umbringen will.

Wäre HAL statt über eine rote Pupille mit einem Roboter dargestellt worden, hätte jeder sofort gerufen: „Warum habt ihr ihm nicht Asimovs Robotgesetze eingepflanzt?“ – Nach deren erster Direktive dürfen Roboter einem Menschen niemals schaden! Aber was macht dann der „Terminator“ falsch? Der und Konsorten sind Kriegsgeräte, und für die gelten leider eigene Regeln.

In der Verantwortung stehen eben schlussendlich die Menschen, die das Werkzeug, nämlich die KI, einsetzen. Wenn Menschen Regeln gegen andere Menschen definieren, ist nicht die KI schuld. Da Menschen machen werden, was immer ihnen möglich ist, wird es leider geschehen. Dagegen bringt es wohl nichts, die Menschen „technisch aufzurüsten“ um sie den Maschinen als ebenbürtig erscheinen zu lassen, wie Michio Kaku vorschlägt.

Und wer garantiert, dass nicht ein simpler „Blitzschlag“ die eigentlich freundliche KI durcheinanderbringt? Wie beispielsweise in der Episode „Hüter des Gesetzes“ aus der Serie „Raumpatrouille“, wo Roboter die Menschen nach einer Schießerei nur dadurch im Einklang mit Robotgesetzen schützen können, indem sie ihnen alle Waffen wegnehmen und sie praktisch versklaven.

Die Ängste vor KI sind also so berechtigt wie die vor der Atombombe. Die Gefahren durch wilde Tiere, Hunger und Krankheiten haben wir Menschen über die Jahre immer weiter zurückgedrängt. Dafür erschaffen wir uns, emotionsfrei gesagt, immer mal wieder neue Probleme. Das wir da emotional reagieren ist eben genau der Punkt, der uns von Maschinen unterscheidet.