Neulich
verlinkten wir auf einen Artikel in der
New York Times, der überzeugend darlegte, dass
Künstliche Intelligenz gerade einen Quantensprung hinter sich hat und
tatsächlich intelligent wird. Als Korrektiv sollte man den
Artikel des KI-Skeptikers
Gary Marcus in seinem Substack-Blog lesen. Er erzählt, welch einen Schaden eine durchaus
mächtige Sprachsoftware in einem physischen Roboter anrichten kann, wenn er etwas missversteht. Zum Beispiel, wenn sie auf eine schmutzige Tasse zeigen, an der die
Katze gerade nippt, und Sie dem Roboter sagen, "
Tu sie in den Geschirrspüler". Google entwickelt gerade einen solchen Roboter. Und Marcus ist äußerst misstrauisch: "Die Realität ist, dass die Branche derzeit keine überzeugende Idee hat, wie man die vielen Abgleichungsprobleme lösen kann, die große Sprachmodelle behindern. Wie ich in den Aufsätzen in diesem Substack-Blog dargelegt habe..., liegt das daran, dass große Sprachmodelle eher
oberflächliche statistische Nachahmungen sind als Systeme, die mit umfangreichen kognitiven Modellen der Welt um sie herum arbeiten. Die Entwicklung eines Roboters auf der Grundlage eines Sprachsystems, das ein so geringes Verständnis von der Welt hat, kann kein Erfolgsrezept sein. Aber genau das ist das neue System von Google, eine Kombination aus oberflächlichem und unverbesserlichem Verstehen von Sprache und leistungsstarken und
potenziell gefährlichen humanoiden Robotern. Und wie das alte Sprichwort sagt: Müll rein, Müll raus."