Star Trek Heute: Die Menschheit ist möglicherweise nicht in der Lage, superintelligente künstliche Intelligenz zu kontrollieren ?
Die Menschheit ist möglicherweise nicht in der Lage, super-intelligente künstliche Intelligenz (KI) zu kontrollieren, glauben die Autoren einer aktuellen theoretischen Studie. Außerdem wissen wir vielleicht nicht einmal, dass wir diese Art von KI (künstliche Intelligenz) geschaffen haben.
Der rasante Fortschritt der Algorithmen der künstlichen Intelligenz vollzieht sich vor unseren Augen. Maschinen gewinnen gegen Menschen beim Go und Poker, schlagen erfahrene Kampfpiloten im Luftkampf, lernen durch Versuch und Irrtum von Grund auf, läuten eine große Revolution in der Medizin und den Biowissenschaften ein, stellen Diagnosen so gut wie Ärzte und können einzelne Vögel besser unterscheiden als Menschen. Das zeigt, wie rasant der Fortschritt in vielen Bereichen ist.
Bild Quelle: Pixabay
Mit diesem Fortschritt kommt die Sorge, ob wir in der Lage sein werden, die künstliche Intelligenz zu kontrollieren. Bedenken, die seit mindestens mehreren Jahrzehnten geäußert werden. Seit 1942 kennen wir die berühmten drei Gesetze des Roboters, die der Schriftsteller Isaac Asimov in seiner Kurzgeschichte "The Game of Tag" skizziert hat:
1) Ein Roboter darf einem Menschen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird,
2) ein Roboter muss den Befehlen eines Menschen gehorchen, sofern diese nicht gegen das erste Gesetz verstoßen, und
3) ein Roboter muss sich selbst schützen, solange dies nicht gegen das erste oder zweite Gesetz verstößt.
Später fügte Asimov ein übergreifendes Gesetz 0 hinzu: Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Unterlassung Schaden anrichten.Der Philosoph Nick Bostrom, Direktor des Institute for the Future of Humanity an der Universität Oxford, untersuchte 2014, wie superintelligente KI uns zerstören kann, wie wir sie kontrollieren können und warum verschiedene Methoden der Kontrolle möglicherweise nicht funktionieren. Bostrom stellte zwei Probleme bei der Kontrolle von KI fest. Die erste ist die Kontrolle darüber, was die KI tun kann. Zum Beispiel können wir steuern, ob es eine Verbindung zum Internet herstellen soll. Die zweite ist die Kontrolle darüber, was es tun will. Um ihn zu kontrollieren, müssen wir ihm zum Beispiel die Prinzipien der friedlichen Koexistenz mit dem Menschen beibringen. Wie Bostrom feststellte, wird eine superintelligente KI wahrscheinlich in der Lage sein, alle Beschränkungen zu überwinden, die wir ihr auferlegen wollen, was sie tun kann. Was das zweite Problem angeht, bezweifelt Bostrom, dass wir einer superintelligenten KI irgendetwas beibringen könnten.
Jetzt haben Manuel Alfonseca und sein Team von der Universidad Autonoma de Madrid beschlossen, das Problem der Steuerung künstlicher Intelligenz in Angriff zu nehmen. Die Ergebnisse seiner Arbeit beschrieb er im Journal of Artificial Intelligence Research.
Die Spanier merken an, dass jeder Algorithmus, der sicherstellen soll, dass KI keine Menschen schädigt, zunächst ein Verhalten simulieren muss, das in der Schädigung eines Menschen enden könnte, damit die Maschine es erkennen und stoppen kann. Allerdings, so die Forscher, wird kein Algorithmus in der Lage sein, das Verhalten der künstlichen Intelligenz zu simulieren und mit absoluter Sicherheit zu bestimmen, ob eine bestimmte Aktion wahrscheinlich in einem Schaden für den Menschen enden wird. Es wurde bereits bewiesen, dass Asimovs erstes Gesetz ein Problem ist, das nicht berechnet werden kann.
Außerdem wissen wir vielleicht nicht einmal, dass wir eine superintelligente Maschine geschaffen haben, schlussfolgern die Forscher. Der Grund dafür ist das Rice-Theorem, das besagt, dass man das Ergebnis eines Computerprogramms nicht erraten kann, wenn man sich nur seinen Code ansieht.
Doch Alfonseca und seine Kollegen haben auch gute Nachrichten. Nun, wir müssen uns keine Sorgen mehr darüber machen, was eine superintelligente KI tun wird. Es gibt in der Tat drei wesentliche Einschränkungen für die Art der Forschung, die die Spanier durchführen. Erstens wird eine solche super-intelligente KI erst in 200 Jahren entstehen. Zweitens ist nicht bekannt, ob es überhaupt möglich ist, diese Art von künstlicher Intelligenz zu schaffen, also eine Maschine, die in so vielen Bereichen intelligent ist wie der Mensch. Und drittens: Auch wenn wir vielleicht nicht in der Lage sind, superintelligente KI zu kontrollieren, sollte es doch möglich sein, künstliche Intelligenz zu kontrollieren, die in einem engen Bereich superintelligent ist.