Viele Ängste ranken sich um die rasanten Entwicklungen um künstliche Intelligenz. Sie haben damit zu tun, dass die neue Technologie ein Spiegel unser selbst ist. Und wir haben gute Gründe, uns vor der Menschheit zu fürchten.
–
Der Großvater künstlicher Intelligenz, Geoffrey Hinton, wurde quasi von einem Pionier zu einem Gegner. Im Podcast „The Daily“ von den New York Times erzählt er, dass das vor allem daran liegt, was passiert ist, als das Potenzial der Technologie vom Kapitalismus entdeckt wurde – und zwar jenem, der Waffen herstellt und verkauft. Früh wurde versucht, automatisierte Kampfsysteme zu erstellen, Tötungsmaschinen, die anders als Drohnen nicht nur unbemannt an der Front sind, sondern auch selbst entscheiden sollen, wen sie umbringen und wen nicht. Wenn ihr euch an den Film Terminator erinnert fühlt, habt ihr gar nicht so unrecht. Da geht es aber nicht nur um den stählernden Cyborg, der furchterregend aussieht – das Problem daran ist die Logik der Systeme. AI hat keine ganzheitliche Ethik, wie man es von Menschen erwartet. Du gibst ihnen ein Problem und das verfolgen sie dann. Ohne Skrupel. Wenn man AI sagt, es möge die Verschmutzung der Meere stoppen, so würde es dabei in Kauf nehmen, die Atmosphäre zu verpesten, den Himmel abzudunkeln, Arten auszulöschen – da das alles nicht relevant ist, nur das eigene Ziel zählt.
Was bedeutet das für den Menschen? Ilya Sutskever, der Chefforscher bei Open AI, der Firma hinter ChatGPT, hat darüber mit dem Guardian gesprochen. Er meint, man müsse nun darauf achten, dass die Ziele von AI mit den Zielen von Menschen übereinstimmen. Doch genau hier ist das Problem, nicht nur, wenn man sich ansieht, wie die Menschheit sich benimmt. Sutskever meint, AI würde mit uns Menschen wohl so umgehen, wie wir es mit Tieren tun. Menschen hassen Tiere nicht, auch wenn man das annehmen könnte, wenn man den Umgang mit ihnen betrachtet (solange es nicht um den individuellen Umgang mit Haustieren geht). Tiere sind Menschen offenbar nicht wichtig, sie sind für uns nur Objekte, Bausteine für unsere Ziele. Was aus ihnen dabei wird, wie es ihnen geht, ist uns in der Regel egal, es ist nur Nebenprodukt anderer Zielsetzungen. Wir wären laut Sutskever für AI genau das, was Tiere für uns sind.
–
Wir können aber nicht, wie er meint, die Zielsetzungen der Technologie an unsere anpassen – das Problem liegt tiefer. Denn wenn die neue Technologie Zielsetzungen nach den Maßstäben verfolgt, wie es Menschen tun, haben wir allen Grund, uns zu fürchten, zumal sie uns bald schon in manchen Belangen überlegen sein und womöglich weitreichende Autonomie haben könnte. Sie folgt eigentlich nur dem menschlichen Vorbild. Vielleicht wäre es an der Zeit, unsere eigenen ethischen Maßstäbe zu ändern, damit wir eine neue und sich rasant entwickelnde Technologie noch daran anpassen können. Eine Orientierung dafür wäre, wie wir die Frage nach Tierwohl lösen wollen.