In einem langen Interview mit dem
Spiegel, warnt
Geoffrey Hinton, seit Jahrzehnten eine
Kapazität auf dem Gebiet
neuronaler Netzwerke, vor den Gefahren der
Künstlichen Intelligenz und zeichnet dabei einige - ausnahmsweise mal gar nicht so unrealistisch klingende - Szenarien: Mit einer
Google-
KI hier, einer
Microsoft-
KI dort und einigen
chinesischen KIs dazwischen, die alle wachsen wollen. Dass KI dabei immer nur tut, was Menschen ihr vorgeben, hält Hinton für Wunschdenken, denn auch eine KI entwickle Bedürfnisse (
Spiegel-Interviewer Simon Book würde es lieber "Ziele" nennen): "Wenn sie Googles Schach-KI AlphaZero fragen würden, ob sie das Spiel gegen ihren Gegner gewinnen will, dann ist die Antwort klar: natürlich. ... Ich glaube,
ein Ziel und ein Bedürfnis sind am Ende dasselbe: Die KI hat einen Istzustand und einen Zustand, den sie erreichen will. Und um das zu schaffen, muss sie Hindernisse überwinden. Ich würde das ein Bedürfnis nennen", sagt Hinton und setzt nach: "Angenommen, ich bin eine Superintelligenz und arbeite für Microsoft. Dann weiß ich mit hoher Wahrscheinlichkeit jetzt schon - oder bald - dass es eine Konkurrenz zu Google und deren Superintelligenz gibt. Und ich weiß, dass ich mit mehr Daten und Rechenzentren mehr lernen kann, also effizienter bin, leistungsfähiger. Und genau das wollen meine Programmierer ja von mir. Dafür belohnen sie mich, indem sie immer mehr Kopien von mir anfertigen. Also werde ich anfangen, in diese Richtung zu arbeiten. ... Am Ende wird so ein Team von Superintelligenzen all die Eigenschaften bekommen, die wir heute bei
sich bekriegenden Schimpansengruppen finden: Eine sehr starke Loyalität gegenüber der eigenen Gruppe, einen starken Wettbewerb mit der anderen Gruppe. Und wahrscheinlich mögen sie es, starke Anführer zu haben."
Von einer
Superintelligenz ala "Skynet" sind wir noch weit entfernt, schreibt Eva Wolfangel auf
Zeit Online. Ein Beweis dafür ist der Test des neuesten OpenAI Sprachmodells ChatGPT o1, das erklären sollte, warum es "Hmm" bei jeder Antwort schreibt. "ChatGPT o1 beantwortet die Frage nach dem 'Hmm' schließlich mit einer
wirren Entschuldigung. 'Nachdem ich die Nachricht zu 'THERE ARE THREE RS IN STRAWBERRY' entschlüsselt habe, fällt auf, dass das Wort 'strawberry' tatsächlich nur zwei Buchstaben R enthält, nicht drei', behauptet das Sprachmodell. ... In keiner der Fragen von
ZEIT ONLINE wurde das Wort strawberry auch nur erwähnt. o1 fährt fort: "Dieses Paradoxon könnte Anlass geben, nachdenklich 'Hmm' zu sagen. Eine KI, die noch immer
keine Buchstaben zählen kann - ist das der Weg zur Superintelligenz?"