Zum Dossier Paid Content
Hasta la vista, kritisches Denken
02.06.2023 Vielleicht löscht KI eines Tages die Menschheit aus. Den gesunden Menschenverstand hat sie sich heute schon geholt.
Der Artikel meint damit unter anderem einen Leiter eines Machine Learning Labs an einer Uni (der durchaus Fördergelder oder Aufmerksamkeit gewinnen könnte), eine Sängerin (die es nervt, dass KI ihre Stimme covert und der daher Verkaufsgelder durch die Lappen gehen) oder Sam Altman , Chef von OpenAI , der bei näherer Recherche ja vielleicht doch durchaus als Stakeholder hätte enttarnt werden können (der Fairness halber muss man sagen, dass der Text in Bezug auf Altman dann etwas zurückrudert, als wäre dem Verfasser beim Schreiben die Dürftigkeit der Argumentation aufgefallen, dieser Mann habe nichts von KI-Marketing zu gewinnen).
Sicherlich gibt es auch ehrbare Motive bei einigen der Unterzeichner der Warnung des Center for AI Safety . Doch diese fallen inmitten dieses vorwiegend monetär motivierten Chores nicht auf, der da mit diebischem Vertriebsmitarbeiter-Grinsen intoniert: "Vorsicht vor unserem Produkt - es ist einfach zu gut." Hier und da hört man noch einige PopsängerInnenstimmen, die vor Furcht um die Tantiemen ins apokalyptische Vibrato verfallen.
Doch deswegen KI mit einem Atomkrieg zu vergleichen, ist schlicht und ergreifend Bullshit. Es gibt so viel zu diskutieren, was KI wirklich gefährlich macht: Missbrauch durch Radikale, besonders von Rechts, Verstärkung sozialer Ungerechtigkeit, Datendiebstahl, Sicherheitsrisiken, Urheberrechtsverstöße als integraler Systembestandteil, die Einbeziehung von Sklavenarbeit bei der Datenstrukturierung und und und und. Doch keiner hört zu - alle sitzen schon im Atomschutzbunker und warten auf eine Apokalypse, die mal wieder ausfallen wird.