Anzeige
Anzeige

Künstliche Intelligenz: Manfred Spitzer über ChatGPT: „Ja, ich kann Ihnen helfen“

Künstliche Intelligenz: Manfred Spitzer über ChatGPT: „Ja, ich kann Ihnen helfen“

Künstliche Intelligenz: Manfred Spitzer über ChatGPT: „Ja, ich kann Ihnen helfen“

Ein Nutzer des KI-Programms ChatGPT (Symbolbild)
Ein Nutzer des KI-Programms ChatGPT (Symbolbild)
Ein Nutzer des KI-Programms ChatGPT (Symbolbild) Foto: picture alliance / AA | Didem Mente
Künstliche Intelligenz
 

Manfred Spitzer über ChatGPT: „Ja, ich kann Ihnen helfen“

Eine Buchrezension der anderen Art: Autor Dirk Engelhardt wollte wissen, ob die Künstliche Intelligenz ihm bei einer Kritik zu dem Buch Manfred Spitzers über KI helfen kann.
Anzeige

Warum nicht mal erst die Künstliche Intelligenz fragen, was sie von einem fundierten Werk über die Künstliche Intelligenz hält, das gerade erschienen ist? Antwort von ChatGPT (Einfache Version): „Entschuldigen Sie die Verwirrung, aber bis zu meinem letzten Wissensupdate im Januar 2022 hatte Manfred Spitzer kein spezifisches Buch zur Künstlichen Intelligenz veröffentlicht.“

Up to Date ist sie also nicht, die Künstliche Intelligenz. Immerhin kann die KI aber etwas zur Person des Autors sagen, nämlich: „Manfred Spitzer ist ein deutscher Psychiater und Hochschullehrer, der sich hauptsächlich mit Themen der Gehirnforschung, Digitalisierung und deren Auswirkungen auf die Gesellschaft befaßt.“

Das Buch, das im November vergangenen Jahres herauskam, ist 345 Seiten stark und behandelt, wie sollte es anders sein, die Entstehung und die Auswirkungen der KI aus der Sicht eines Wissenschaftlers. Dabei läßt Spitzer viel Geschichtliches einfließen, das er aus dem Effeff beherrscht. Schließlich befaßt er sich seit dreißig Jahren mit neuronalen Netzwerken, wie er gleich im ersten Satz des Buches schreibt.

Zettel und Bleistifte als Leistungsgarant

In Talkshows fiel Spitzer mit spitzen Bemerkungen auf, wie zum Beispiel daß die künstliche Intelligenz uns dümmer machen wird, wenn wir nicht aufpassen. Und daß man bei Prüfungen doch bitte Zettel und Bleistifte austeilen solle, um zu sehen, was die Studenten wirklich draufhätten.

Die wissenschaftliche Gründlichkeit, die Spitzer pflegt, läßt sich im Aufbau und in der Reihung der Artikel seines Buches ablesen. Im ersten Kapitel geht es noch gut lesbar zu den Vorläufern der KI, nämlich Anwendungen wie Alexa, Captcha oder dem Chatbot ELIZA der tatsächlich bereits im Jahr 1966 erfunden wurde. Doch an dieser Stelle soll nicht der Inhalt von Spitzers Buch zusammengefaßt werden, eine Buchkritik soll ja eine möglichst individuelle Bewertung des Buches darstellen.

Also Frage an Chat GPT: Kann Chat GPT seriöse Buchkritiken schreiben? Antwort, nach einer Sekunde: „Ja, ich kann Ihnen dabei helfen, eine Buchkritik zu verfassen. Es ist wichtig zu beachten, daß meine Antworten auf vorherige Fragen oder Anfragen basieren und nicht auf einer persönlichen Leseerfahrung mit dem spezifischen Buch, über das Sie eine Kritik wünschen. Dennoch kann ich allgemeine Punkte zur Struktur einer Buchkritik und mögliche Themen, die behandelt werden können, anbieten.“

ChatGPT schreibt Texte, doch niemand soll es erkennen

Das klingt zugegebenermaßen ehrlich, aber auch ernüchternd. Ich wollte eigentlich, daß Chat GPT mir die Arbeit einer Buchkritik über ein 335 Seiten starkes Buch abnimmt, das ich als Buchkritiker ja auch erst einmal durcharbeiten muß.

Also nächste Frage an Chat GPT: Wie verhindere ich, daß es einem Leser auffällt, daß ein Text von Chat GPT geschrieben wurde und nicht aus meiner Feder stammt? Ist die Frage jetzt zu kompliziert formuliert, kommt Chat GPT mit so einer Frage überhaupt zurecht? Nein, gar nicht. Chat GPT hat scheinbar nur auf diese Frage gewartet und antwortet in wenigen Sekunden. Und ich lerne, wie ich als Journalist demnächst sehr viele Arbeitsstunden sparen kann.

Nämlich mit den Stichworten „Anpassung des Schreibstils, Hinzufügen von persönlichem Wissen, Überarbeitung und Anpassung, Vermeidung von zu komplexer Sprache, Kombination mit eigenem Text, Berücksichtigung von Kontext und Zweck.“ Aha, okay. Also ist der Qualitätstext aus meiner Feder doch nicht ganz wertlos. Auf die richtige Mischung kommt es an.

Radikalisierung per Youtube und Twitter

Als Disclaimer, wie man das heute nennt, fügt Chat GPT noch am Schluß an, daß es wichtig zu beachten sei, daß es trotz dieser Bemühungen schwierig sein kann, die Tatsache zu verbergen, daß ein Text von einer KI erstellt wurde, besonders wenn jemand gezielt darauf achtet. Und: „Die Ethik und Offenheit bei der Verwendung von KI-generierten Inhalten sind ebenfalls wichtige Überlegungen.“ Dumm ist sie nicht, die KI. Aber das hat auch niemand behauptet.

Doch weiter zu Spitzers Buch. Im Kapitel 10 wird es politisch, wenn Spitzer sich zu den Auswirkungen der KI in Bezug auf Parteien wie die AfD, der Radikalisierung via Youtube oder Twitter äußert. Zwischen den Zeilen kommt dabei allerdings Spitzers eigenes Politikverständnis zum Ausdruck, was für ein wissenschaftliches Buch über die KI nicht unbedingt förderlich ist. Auch Spitzers Folgerung, daß wegen KI Schüler bald keine schriftlichen Hausaufgaben mehr machen müssen, darf angezweifelt werden.

Die Antwort von Chat GPT kommt gewohnt schnell

Frage an Chat GPT: Bekommen wir ein Problem, wenn Schulkinder durch Auslagerung eigenen Denkens auf automatische Chatbots die Fähigkeit verlieren, ihre eigenen Gedanken auszudrücken? Antwort von Chat GPT kommt zwar wie gewohnt schnell, aber jetzt kommt der virtuelle Schreiblehrling doch ganz schön ins Schlingern: „Die Auswirkungen der vermehrten Nutzung von automatischen Chatbots und künstlicher Intelligenz im schulischen Umfeld können komplex sein …“ ist zu lesen. Die nächsten zehn Sätze enthalten allesamt das Hilfsverb „könnte“, etwa: Wenn Schulkinder stark auf Chatbots angewiesen sind, um ihre Denkaufgaben zu erledigen, könnten sie möglicherweise ihre Fähigkeiten zur eigenständigen Problemlösung und kreativen Gedankenentwicklung vernachlässigen.“

Im Buch folgen dann weitere ausführliche, stellenweise mühsam zu lesende Kapitel über KI und Militär, KI und Medizin und KI und Soziales. Ärgerlich an einem so grundlegenden Werk über die Bedrohung durch KI ist die Tatsache, daß die Zensur in Google, die direkte Auswirkungen auf die Speisung der KI hat, völlig außer acht gelassen wurde. 2020 wurde die Forscherin Timnit Gebru von Google gekündigt. Die Informatikerin galt als Vorkämpferin für gerechte künstliche Intelligenz, der Vorgang sorgte für Empörung in der Forschungsgemeinschaft. Der Droemer Verlag wäre gut beraten gewesen, wenn er für das Buch nicht nur auf einen Alleinautor gesetzt hätte, sondern mindestens noch einen Co-Autor verpflichtet hätte.

JF 07/24

Ein Nutzer des KI-Programms ChatGPT (Symbolbild) Foto: picture alliance / AA | Didem Mente
Anzeige
Anzeige

Der nächste Beitrag