Ich bin ehrlich und gebe offen zu: Nicht immer bin ich in meinen Vorlesungen so aufmerksam, wie ich es sein müsste. Das geht vermutlich den meisten Student:innen so. Bis vor einem halben Jahr war Twitter bei mir deshalb immer der erste Tab den ich öffnete, wenn ich meinen Laptop aufschlug. Doch seit der Übernahme durch Elon Musk spielt der Twitter Algorithmus verrrückt. Unaufgefordert spielt er mir Beiträge rechter Meinungsmacher wie Julian Reichelt oder Anna Schneider in die Timeline. Mittlerweile bin ich nur noch genervt. Doch zum Glück öffnete sich vor wenigen Monaten ein neues Tor in die Welt der Prokrastination: ChatGPT.
ChatGPT ist eine Art Chatbot. Ich schreibe, er antwortet. Dabei analysiert die Software die Weiten des Internets und berechnet dann anhand von Wahrscheinlichkeiten eine Antwort. Der Kreativität sind dabei kaum Grenzen gesetzt: Nahezu jede Aufgabe, die in einem Textergebnis resultiert, kann von ChatGPT gelöst werde. So kann ich mir von der KI beispielweise einen Diätplan unter Berücksichtigung meiner Allergien, Vorlieben und meines Budgets erstellen lassen. ChatGPT kann auf Wunsch ein neues Märchen im Stile der Gebrüder Grimm schaffen oder sich Regeln zu einem nicht existenten Brettspiel überlegen.



Nachdem ich mich einige Vorlesungsstunden mit diesen Spielereien beschäftigt hatte begann ich, über einen konkreteren Nutzen der Künstlichen Intelligenz für mich nachzudenken. Kann mir ChatGPT die Inhalte zusammenfassen, die ich dank ihm in meiner Vorlesung verpasst habe? Kann mir die KI die lästige Literaturrecherche vor einer Hausarbeit erleichtern. Wäre ChatGPT sogar in der Lage, die ganze Hausarbeit für mich zu schreiben? Die Möglichkeit dieser Anfragen führt zu einer persönlichen Frage: Muss ich als angehender Journalist Angst haben, durch eine KI ersetzt zu weden?
Tatsächlich spuckt mir der Chatbot für alle drei Anfragen eine glaubwürdige Antwort aus. Das Konzept der Versicherheitlichung kann mir ChatGPT zielsicher erklären. Ich könnte sogar zu Teilaspekten Nachfragen stellen, die mir dann treffend beantwortet würden. Die Literaturliste, die mir die KI zum sehr spezifischen Thema „Versicherheitlichung natürlicher Ressourcen in Ghana“ zu Verfügung stellt, bedarf allerdings eines zweiten Blickes. Zunächst scheint sie wirklich eine exellente Übersicht der wichtigsten Literatur zu diesem Thema zu sein. Hätte ich in einem realen Szenario selbst eine solche Liste anlegen wollen, hätte mich dies locker ein bis zwei Stunden Zeit gekostet. Doch nach einer kurzen Googlesuche musste ich feststellen, dass die Hälfte der vorgeschlagenen Werke gar nicht existiert. Die ersten drei Vorschläge sind absolut real und passen ideal zum geforderten Thema. Die letzten drei Texte aber wirken zwar zunächst ebenso treffend, Titel passen zur Arbeit, die vermeintlichen Autor:innen sind allesamt anerkannte Wissenschaftler:innen und arbeiten auch in den zur Arbeit passenden Forschungsfeldern, sie wurden aber nie geschrieben und sind entsprechend nicht auffindbar. Im Sinne der KI war es nicht unwahrscheinlich, dass diese Werke existieren – tun sie aber nicht.



Beauftrage ich ChatGPT nun mit der Anfertigung eines ganzen Aufsatzes zu dem Thema, tippt mir die KI sieben Absätze in das Chatfenster. Der Ausdruck des Ergebnisses ist durchaus seriös, der Inhalt bleibt jedoch äußerst oberflächlich und erreicht keinesfalls ein akademisches Niveau. Für eine bestandene Hausaufgabe in der neunten Klasse Geografieunterricht würde die Antwort vermutlich reichen, für den Teil einer universitären Hausarbeit aber ganz sicher nicht. Die Sorge vieler Universitäten vor KI-Plagiaten ist deshalb derzeit noch verfrüht, im Anblick der rasanten Entwicklung künstlicher Intelligenzen jedoch nicht unbegründet.
Gerade wenn die geforderten Texte komplexer sind oder mit Quellen belegt werden müssen, versagt die künstliche Intelligenz. Schließlich verfasst sie Sprache anhand von Wahrscheinlichkeiten und nicht anhand von Quellenrecherche. Fordert man die KI dazu auf, Quellen zu nennen, haben diese oft nichts mit der urprünglichen Information zu tun oder sind ohnehin rein fiktiv. Für Menschen, die in ihrem Beruf komplexere Texte schreiben müssen, wird KI in absehbarer Zukunft deshalb vorerst nur ein Hilfsmittel sein.
Auf andere kreative Aufgaben und Berufe könnten solche KIs jedoch deutlich schneller Einfluss nehmen. OpenAI, die Firma hinter ChatGPT, vertreibt die Architektur seiner Künstlichen Intelligenz bereits jetzt kommerziell. Zu ihren ersten namenhaften Kunden gehört auch die Nachrichtenplattform Buzzfeed. Nun ist Buzzfeed nicht gerade bekannt für politischen oder gar investigativen Journalismus. Typische Beiträge auf der Plattform tragen Titel wie: „13 Liebesgeschichten aus Disney-Filmen im Ranking von Traumpaar bis toxische Beziehung“ oder „16 echt wilde Chats von Leuten, die zumindest ehrlich sind“ (Ja, diese Artikel gibt es wirklich und sie sind derzeit sogar prominent auf der Startseite platziert!). Solche Beiträge scheinen perfekt, um von KIs wie ChatGPT erstellt zu werden: Es gibt unzählige Vorlagen im Internet, die Beiträge erfordern keine Meinung, sind nicht kontrovers und Künstliche Intelligenzen lieben Listen. Buzzfeed CEO Jonah Peretti kündigte an, künftig einen erheblichen Teil an Content durch solche KIs erstellen zu lassen. Vielen Redakteur:innen wird dies vermutlich den Job kosten.
Firmenlizenzen für Text-KIs von Open-AI sind derzeit in vier qualitative Stufen unterteilt und werden nach Anzahl der Wörter gezahlt. Für 750 Wörter des einfachsten Modells Ada werden derzeit 0,04 Cent fällig, für das komplexere Modell Davinci zwei Cent. Wäre dieser Artikel auf Spotlight mit Davinci geschrieben worden, hätte er etwa drei Cent gekostet und wäre in wenigen Sekunden fertig geschrieben. Ich selbst habe für Recherche und Schreiben insgesamt etwa fünf Stunden gebraucht. Würde Spotlight mich für meine Arbeit und meine Ausstattung bezahlen, wären schnell mehrere hundert Euro fällig.
In naher Zukunft wird sich küntliche Intelligenz deshalb in vielen Redaktionen etablieren. Den Anfang machen werden sicher einfachste Beiträge. Aus meiner Erfahrung in Lokalredaktionen weiß ich, dass beispielsweise für Veranstaltungstipps derzeit mühsam überfüllte Emailpostfächer nach Pressemitteilungen, und diese nach Titel der Veranstaltung, Name der Künstler:innen, Zeit und Veranstaltungsort durchforstet werden, um aus diesen Informationen einen knappen Dreizeiler zu verfassen. Diese nervige und unkreative Arbeit könnte bereits jetzt problemlos von Künstlichen Intelligenzen erledigt werden.
Doch je weiter KIs in Redaktionen vorrücken, desto dringender müssen sich auch moralische Fragen gestellt werden. Auch rein sachliche Beiträge sind nicht frei von Haltung. Welchen Moralkompass wenden KIs an, können sie gar eine Meinung entwickeln? Natürlich beruhen KIs auf der Programmierung von Menschen und bereits ChatGPT hat von diesen einige Barrieren eingebaut bekommen: Sein Wissen endet im Jahr 2021, das soll verhindern, dass das Programm aktuelle und möglicherweise zeitkritische Ereignisse beeinflusst. Auch vorhersehbar kontroverse Themen sind für ChatGPT Tabu: So kann die KI keine Fragen zu Donald Trump oder zum Konsum von Drogen beantworten. Auch Pornografie und andere explizit sexuelle Inhalte sind für die Software unantastbar. Zudem hat das Programm ein eingepflegtes Wertesystem, welches auf Toleranz und Gewaltlosigkeit basiert. Dieses System könnten die Entwickler aber problemlos in ihr Gegenteil wandeln.
Womit wir wieder bei Elon Musk und dem offensichtlich veränderten Twitteralgorithmus wären. Eine umfassende journalistische Nutzung von Künstlicher Intelligenz könnte nicht nur zu Fehlinformationen oder einseitig gewichteten Beiträgen führen. Sie läge auch die Hoheit über Pressefreiheit, Wahrheit und Diskurs in die Hände weniger: Die der Entwickler. Ähnlich wie das Publikum auf Twitter derzeit, könnte dadurch unsere ganze Gesellschaft verschoben werden.