KI / Singularity

Der Begriff „Künstliche Intelligenz“ (KI) mag irreführend sein, da in einem Elektronengehirn (um mal einen altmodischen Ausdruck zu verwenden) ganz andere Prozesse ablaufen, als im Kopf von Mensch und Tier. Natürlich werden wir dem Kumpel Maschine beibringen, zum Nutzen der Menschen zu handeln, sofern er/sie dafür irgendwie sorgen kann. Doch das eigentliche Problem dürfte der „Lehrer“ sein, der einer KI beibringt, was wie zu sein hat, beziehungsweise der „Arbeitgeber“, der diese Intelligenz nutzt.

Die momentane Diskussion hat möglicherweise Internetpionier Künstliche Intelligenz - SingularityJaron Lanier mit seinem positiven Beitrag „The Myth of AI“ ausgelöst. Auf der Seite der Mahner stehen Leute wie Elon Musk oder Stephen Hawking für die KI das Ende der Menschheit bedeuten könnte. Leute wie Futurist Ray Kurzweil sehnen dagegen den Moment herbei, an dem Emotionen aus den Entscheidungen genommen werden. Als Begriff für diesen Zeitpunkt, der im nächsten viertel Jahrhundert erwartet wird, soll sich „Singularity“ etablieren.
SF-Autor David Brin legt sich nicht fest, auch wegen seines Alters, wie er sagt 😉

An sich ist die Sache mit der KI ganz einfach und unterscheidet sich im Grundsatz nicht von uns Menschen. Einkommende Daten (Input) werden verarbeitet und Entscheidungen gefällt (Process), anschließend Aktionen ausgeführt (Output). Das macht ein Schachcomputer nicht anders, ist aber mit festen Algorithmen ausgestattet, wo eine KI eben wie ein Mensch ständig dazu lernen kann, und aufgrund dessen zu einem späteren Zeitpunkt die Daten möglicherweise anders bewertet als zuvor und andere Aktionen ausführt.

Könnte eine Maschine mit KI dereinst „plötzlich“ zur Entscheidung gelangen, dass Menschen nur hinderlich sind und vernichtet werden müssen? Wie „HAL 9000“ im Film „2001“: Die Menschen haben dem „fehlerlosen“ Computer einen Fehler nachgewiesen und misstrauen ihm, woraufhin er das Missionsziel durch sie gefährdet sieht und sie umbringen will.

Wäre HAL statt über eine rote Pupille mit einem Roboter dargestellt worden, hätte jeder sofort gerufen: „Warum habt ihr ihm nicht Asimovs Robotgesetze eingepflanzt?“ – Nach deren erster Direktive dürfen Roboter einem Menschen niemals schaden! Aber was macht dann der „Terminator“ falsch? Der und Konsorten sind Kriegsgeräte, und für die gelten leider eigene Regeln.

In der Verantwortung stehen eben schlussendlich die Menschen, die das Werkzeug, nämlich die KI, einsetzen. Wenn Menschen Regeln gegen andere Menschen definieren, ist nicht die KI schuld. Da Menschen machen werden, was immer ihnen möglich ist, wird es leider geschehen. Dagegen bringt es wohl nichts, die Menschen „technisch aufzurüsten“ um sie den Maschinen als ebenbürtig erscheinen zu lassen, wie Michio Kaku vorschlägt.

Und wer garantiert, dass nicht ein simpler „Blitzschlag“ die eigentlich freundliche KI durcheinanderbringt? Wie beispielsweise in der Episode „Hüter des Gesetzes“ aus der Serie „Raumpatrouille“, wo Roboter die Menschen nach einer Schießerei nur dadurch im Einklang mit Robotgesetzen schützen können, indem sie ihnen alle Waffen wegnehmen und sie praktisch versklaven.

Die Ängste vor KI sind also so berechtigt wie die vor der Atombombe. Die Gefahren durch wilde Tiere, Hunger und Krankheiten haben wir Menschen über die Jahre immer weiter zurückgedrängt. Dafür erschaffen wir uns, emotionsfrei gesagt, immer mal wieder neue Probleme. Das wir da emotional reagieren ist eben genau der Punkt, der uns von Maschinen unterscheidet.