Das Social-Media-Verbot für Jugendliche in Australien funktioniert, freut sich Helmut Hartung in der FAZ: "Nach Auskunft der australischen Regierung wurden in den ersten zwei Tage 4,7 Millionen Konten von unter 16-Jährigen deaktiviert. Auf dem Kontinent gibt es etwa 2,5 Millionen Acht- bis 15-Jährige. Fast 84 Prozent der Acht- bis Zwölf-Jährigen hatten zuvor mindestens ein Social-Media-Konto. Damit ist eine beträchtliche Zahl der Konten Minderjähriger geschlossen worden." Hartung befragt deutsche Experten, die ein solches Verbot auf europäischer Ebene ebenfalls befürworten, etwa die in Australien lehrende Expertin Ingrid Volkmer, die empfiehlt, dass "eine solche Beschränkung, wie eine Altersbegrenzung bei Kinofilmen, ohne ideologische Scheuklappen, offen diskutiert werden" sollte.
Die EU hat angeblich inzwischen begriffen, dass es nicht gut ist, wenn Europa die Digitalisierung amerikanischen und chinesischen Konzernen überlässt. Unter der Schirmherrschaft der einstigen EU-Kommissarin Margrethe Vestager, einst der Regulierungsschreck von Google und Co., kommen europäische Unternehmen in verschiedenen Konferenzen zusammen, um den amerikanischen Oligarchen etwas entgegenzusetzen, berichtet Lisa Hegemann euphorisch für die Zeit. Einige hoffnungsvolle Ansätze gebe es bereits: "Da ist das Start-up Crags, das Kletterer zusammenbringt. Die Datingplattform Cherrish, die Männer für erfolgreiche Frauen finden will. Das Freundschaftsportal Fredie, das die Gen Z weniger einsam machen will. Die Musikplattform Sleeve, die Künstlerinnen fairer vergüten will."
Ausgerechnet die Deutschen interessieren sich kaum für die Sicherheit ihrer Daten, wenn's der Bequemlichkeit dient? Meredith Whittaker, Präsidentin der alternativen Kommunikations-App Signal kann es im Interview mit der Zeit kaum fassen: "Ausgerechnet in Deutschland, are you kidding me?! Die Macht der Stasi beruhte doch nicht auf physischer Gewalt, sondern auf Informationsasymmetrie! Sie machte intimes Wissen über die Menschen zur Waffe und nutzte ihre Angst vor Ausgrenzung, Scham, wirtschaftlicher Unsicherheit und sozialem Abstieg. Entschuldigung, ich wollte nicht laut werden, aber wenn die Menschen das nicht verstehen, dann weiß ich auch nicht, was ich noch machen soll."
"Die Politik wird scheitern, aber die Ingenieure, Chemiker und Physiker werden die Menschheit retten", verkündet frohgemut der Wirtschaftsnobelpreisträger Joel Mokyr ebenfalls im Interview mit der Zeit. Klar könne beispielsweise KI gefährlich werden: "Das heißt aber auch nicht, dass wir diese Werkzeuge von vornherein nicht entwickeln sollten. Es bedeutet, dass wir ihren Missbrauch so weit wie möglich verhindern sollten. Die gleichen Werkzeuge, mit denen Twitter erstellt wurde, können auch dazu verwendet werden, Hassrede und ähnliche Dinge herauszufiltern. Dafür ist die staatliche Aufsicht gemacht."
In der taz freut sich Mathias Greffrath schon auf seinen Pflegeroboter! Aber im Ernst, dem digitalen Fortschritt kann er wenig abgewinnen: "Das Verschwinden analoger Beziehungen - zu Deutsch: direkter menschlicher Kontakte - aus dem Gewebe der Gesellschaft ist, so glaube ich, das folgenreichste, anthropologisch tief wirkende Merkmal der digitalen Zeitenwende. Diese Rationalisierung von Nähe und Nachbarschaft spielt in vielen Formen und hat nicht erst jetzt begonnen: Die Abschaffung des Kassierers bei der SPD hat den Mitgliederschwund mit beschleunigt; die Privatisierung der Pflege den Beruf der Gemeindeschwester aussterben lassen; die Schematisierung der 'Lernerfolge' den Lehrer zum Vermittler degradiert. Das Soziale wird immer mehr zum Beiprodukt - oder ausgegliedert: an Personal Coaches, Berater, Animateure, Therapeuten und Gurus aller Art. Kostenpflichtig. Die Logik heißt: Mehr arbeiten im 'produktiven Kern', damit wir uns menschlichen Kontakt dazubuchen können. Im Alter wird's dann eng".
Bestellen Sie bei eichendorff21!Der prominente Philosoph Markus Gabriel hat mit "Ethische Intelligenz" ein recht optimistisches Buch über Künstliche Intelligenz vorgelegt. Im Gespräch mit FAZ-Autor Fabian Ebeling legt er dar, dass er sich auch als Professor noch als Herr des Geschehens liest - Studenten können ihn mit Ki jedenfalls nicht betupsen: "Um mit einer KI eine gute Hausarbeit zu schreiben, braucht man Skills, mit denen man sie auch alleine schreiben könnte. Als Hochschullehrer kann ich den typischen Stil einer KI erkennen - oft kann man sagen: 'Das war Claude, das war ChatGPT, das war Perplexity.' Ich glaube aber, das liegt auch daran, dass KIs weniger automatisieren als vielmehr assistieren. Der erste Fehler bei der KI war, dass man dachte, jetzt verschwindet der Mensch." Allerdings sagt Gabriel auch einen Satz, der an seiner eigenen Zunft zweifeln lässt: "Vielleicht ist im Falle der Intelligenz die Simulation bereits die Sache selbst."
Die meisten amerikanischen KI-Firmen wie Alphabet, xAI und OpenAI haben Abkommen mit ihrer Regierung geschlossen und dabei "teilweise die üblichen Nutzungsbeschränkungen für das Militärnetzwerk aufgehoben", berichtet die Zeit. Die Firma Anthropic will das jedoch nicht zulassen, weshalb Verteidigungsminister Pete Hegseth gedroht hat, "Anthropic aus seinen Systemen zu entfernen, wenn das Unternehmen an seinen Schutzmaßnahmen festhalte. Zudem habe es gedroht, die Firma als 'Risiko für die Lieferkette' einzustufen und den Defense Production Act anzuwenden, um die Entfernung der Schutzmaßnahmen zu erzwingen", so die Zeit-Meldung. Dennoch will sich Anthropic-Gründer Dario Amodei nicht auf die Bedingungen Hegseths einlassen. Und die hätten es in sich, meint Andrian Kreye in der SZ: "Seit gut einem Jahr verwendet das amerikanische Verteidigungsministerium Anthropics Large Language Model Claude für sein geheimes KI-Projekt, bei dem die Streitkräfte digital aufgerüstet werden sollen. Amodei sieht das ganz prinzipiell als Beitrag für die Verteidigung der Demokratie. Allerdings soll Claude nur mit ein paar Einschränkungen eingesetzt werden. Die KI soll keine autonomen Waffen steuern, bei denen die Maschinen Entscheidungen über Leben und Tod fällen. Und Claude soll nicht für die Massenüberwachung von amerikanischen Bürgern eingesetzt werden." Hier begründet Amodei seine Entscheidung in einem längeren Essay.
Künstler, aber auch Übersetzer oder Buchhalter könnten durch KI bald massenhaft arbeitslos werden, warnt Björn Hayer in der FR. Er plädiert deshalb für ein bedingungsloses Grundeinkommen für alle Berufe, die von KI bedroht sind, das die Tech-Konzerne zahlen sollen: "Die Maschinen mögen immer differenzierter und genauer werden, Sozial- und Wirtschaftssysteme hinken derweil hinterher. Es mangelt an Visionen zu deren Anpassung an den technologischen Fortschritt. Es geht dabei nicht um Almosen. Denn da KI selbst nichts schafft, sondern nur Vorhandenes mixt, bedürfen wir Ideen. Unserer Ideen. Der Mensch muss Vordenker bleiben und es sich im buchstäblichen Sinne leisten können."
Was soll's, wenn KI doch recht häufig "halluziniert"? Verfechter der neuen Technologie behaupten, das werde mit der Zeit schon besser werden. Jan Wiele erkennt in diesem Denken im Feuilletonaufmacher der FAZreligiöse Züge. Hier liege eine "kategoriensprengende Vermischung von Glaubens- und Wissensfragen" vor. "Die KI-Prediger sparen nicht mit Heilsversprechen, wie schon öfter bemerkt wurde, etwa angesichts von Äußerungen charismatischer Figuren wie dem Tech-Investor Peter Thiel und dem Open-AI-Gründer Sam Altman. Letzterer hatte das Ziel ausgegeben, 'magische Intelligenz im Himmel zu schaffen'. Auch mit Vorstellungen vom 'Transhumanismus' knüpfen Gestalten aus dem Silicon Valley an technoreligiöse Überzeugungen an, die in den Sechzigerjahren oder noch viel tiefer in der Moderne wurzeln."
Die Bundesregierung denkt derzeit - im Trend mit anderen Staaten - über ein Social-Media-Verbot für Jugendliche nach. In der FAZ ist Susanne Kusicke nach vorsichtiger Abwägung eher dafür, hat aber Zweifel an der technischen Umsetzung: "Der schleswig-holsteinischen CDU, die auf dem Bundesparteitag ein Mindestalter von 16 Jahren in offenen, also nicht oder kaum moderierten Netzwerken vorschlagen wird, schwebt eine Lösung wie in Australien vor: Mit einer Übergangsfrist, um die neuen Anforderungen technisch umzusetzen, müssen dort die Betreiber der Plattformen selbst das Alter ihrer Nutzer überprüfen. Sie tun das zum Teil per Ausweisabfrage, zum Teil per Schätzung durch 'Gesichtserkennung'. Nach einigen Monaten zeigt sich jedoch, dass viele Jugendliche ihre Konten noch haben. Sie haben den Kampf also noch nicht aufgegeben."
In der SZ findet Ulrike Nimz ein Verbot realitätsfern und untauglich: "Soziale Medien sind für Heranwachsende auch das: ein Rückzugsort, wo sie ihre Persönlichkeit erproben, Gleichgesinnte finden und sich informieren. Dass sie das in Sicherheit tun können, muss gesellschaftlicher Auftrag sein. Die Idee der SPD, für 14- und 15-Jährige eine Art Light-Version der Plattformen freizuschalten, auf der man Inhalte wieder selbst kuratieren kann, ist sinnvoll, weil sie die Macht der Algorithmen einschränkt." Wie das Problem der Alterskontrolle zu lösen ist, weiß sie aber auch nicht.
In der Zeit fragt sich Hanno Rauterberg, ob eine Beschränkung für Jugendliche reicht. Er möchte auch die "alten Kinder" schützen: "So wie es eine Anschnallpflicht gibt, um die leichtfertige Unvernunft zu zügeln, so braucht es eine Eindämmung geistiger Unfallgefahren." Für alle!
Müssen wir uns alle vor der AGI, der Allgemeinen Künstlichen Intelligenz, fürchten? Nein, erklärt der Journalist Gregor Schmalzried, der sich intensiv mit KI auseinandersetzt, im FR-Interview mit Lisa Berins. "Ich habe wenig Angst vor einer sich selbstständig machenden Super-KI, die uns alle umbringt. Deutlich realistischer ist ein Szenario, in dem ein autoritärer Staat mithilfe von KI-Tools ein besonders mächtiges und schwer aufdeckbares Netzwerk an Schadsoftware losschickt. Oder KI nutzt, um Drohnen automatisiert zu steuern. Das wird uns in den nächsten Jahren massiv Kopfschmerzen bereiten, weil die KI frei verfügbar ist und nicht mehr in Tiefen des Internets zurückdrückbar ist."
Kira Kramer stimmt in der FAZ mal nicht in die These ein, dass das Internet, besonders in seiner Smartphone-Verkörperung, uns die Hirne zermatsche. "Es geht daher nicht um verminderte Intelligenz. Plausibler ist, dass sie sich umsortiert. Wir werden nicht unfähiger, sondern anders fähig. Nicht alles daran ist gut, nicht alles daran ist schlecht. Aber es ist ein Wandel, der eher an die Einführung der Schrift erinnert als an den Verlust eines Sinnes. Das Smartphone ist, bei aller moralischen Überladung, bloß ein neues Werkzeug. Und Werkzeuge verlagern Kompetenzen."
Der Neurowissenschaftler Gary Marcus warnte schon 1993 davor, dass die sogenannten Large Language Models, die jeder KI zu Grunde liegen, bestimmte technische Grenzen niemals überwinden werden. Lange für seine Positionen verspottet und kritisiert, scheint es sich nun herauszustellen, dass er recht hatte. Im SZ-Interview erklärt er, wo die Probleme liegen: "Diese Modelle sind gut darin, auf Basis riesiger Datenmengen Wahrscheinlichkeiten auszurechnen. Sie verstehen aber nicht, worüber sie sprechen. Und diese statistische Hochrechnung von Wahrscheinlichkeiten stößt an ihre Grenzen, wenn es um Spezialfälle geht, die in den zugrundeliegenden Daten nicht oder kaum vorkommen. Wir erleben das dauernd (...) Mein Lieblingsbeispiel ist die Geschichte eines Tesla-Fahrers, der sein Auto via App zu sich gerufen hat. Auto und Fahrer befanden sich aber auf einer Flugzeugmesse und der Tesla fuhr geradewegs in einen fabrikneuen, 3,5 Millionen Dollar teuren Jet. Statistisch gesehen fahren Autos nicht gerade häufig über Flugzeugmessen, aber manchmal kommt es eben doch vor. Menschen, Fahrräder, Autos hätte der Tesla erkannt, weil die in seiner Datenbasis hinterlegt sind. Ein Flugzeug kam darin nicht vor, und das System versagte."
Selbst KI bewahrt uns nicht vor Peinlichkeit. Katja Scholtz stellt in der FAZ die Liste der schlimmsten Dinge auf, die ihr so passiert sind, etwa "Einen Facetime-Anruf annehmen und ans Ohr halten" oder "Immer wieder die korrekte Schreibweise von 'Büfett' nachschauen müssen. (Und immer wieder feststellen, dass 'Buffet' wie in Bernard Buffet auch geht.) (Aber: Warren Buffett.)"
Nils Matthiesen verweist in golem.de auf einen 38-seitigen Essay mit dem Titel "The Adolescence of Technology" von Dario Amodei, Mitbegründer und CEO des KI-Unternehmens Anthropic, der - sicher auch um das eigene Unternehmen ins Gespräch zu bringen- vor den Folgen einer künstlichen Superintelligenz warnt. Die Demokratisierung der KI könne böswillige Durchschnittsmenschen etwa dazu verführen, sich mal eine chemische Waffe machen zu lassen, oder Ähnliches. Vor Trump hat Amodei, dessen KI-Programm "Claude" heißt, aber offenbar keine Angst: "Trotz der Warnungen treibt Anthropic die Verbreitung seiner Technik voran. Im August 2025 machte das Unternehmen der US-Regierung unter Trump ein Angebot, Claude für lediglich einen US-Dollar pro Behörde für ein Jahr zur Verfügung zu stellen. Dieser Schritt wird als Teil eines verschärften Wettbewerbs zwischen KI-Größen wie OpenAI, Google und Anthropic um die Vorherrschaft bei staatlichen Aufträgen gesehen."
BuchLink: Aktuelle Leseproben.
In Kooperation mit den Verlagen (Info)
Lina Muzur: Frauenprobleme Lina Muzur erhält 33 Sprachnachrichten von Frauen, die in der Mitte des Lebens stehen - eine moderne Bestandsaufnahme einer ganzen Generation und ein kollektives Porträt…
Elena Ferrante: An den Rändern Aus dem Italienischen von Barbara Schaden. In vier personal essays schreibt Elena Ferrante darüber, wie sie Leserin geworden ist und wie Autorin, welche Kämpfe sie austragen…
Mark Terkessidis: Gewalt am Denken Faschismus ist in aller Munde. Faschisten sind allerdings immer nur die anderen: Selbst die autoritärsten Regierungen behaupten, sie würden den Faschismus bekämpfen. Doch…
Christian Haller: Einfallende Dämmerung Eine Erkundungsreise ins unbekannte Land des Alters. Der Mikrobiologe Paul Bálint feiert mit ehemaligen Kollegen in Paris seinen 80. Geburtstag. Er wird geehrt und spürt…
Alle aktuellen BuchLink-Leseproben finden Sie
hier