„ChatGPT fühlt sich wie Junk-Food an“ 

Warum es gerade im Zeitalter von KI wichtig ist, sich nicht auf automatisch generierten Content zu verlassen.

Text von

Ben Seegatz, Associate Data Scientist LOOPING ONE LINKEDIN

Artwork von

Franziska Stegemann, Creative LOOPING ONE LINKEDIN
23.05.24 5 MINUTEN

  • Die steigende Verbreitung von KI-generierten Inhalten wirft wichtige Fragen zu Qualität und Authentizität auf.

  • Während KI-Tools zweifellos Zeit und Kosten sparen können, zeigen Studien, dass man sich nicht blind auf sie verlassen sollte.

  • Selbst erstellter Content ermöglicht, auf aktuelle Ereignisse einzugehen und den Inhalten eine persönliche Stimme zu geben.

„Entdecke die vielfältigen Einsatzmöglichkeiten von KI-Tools! Von der Automatisierung wiederkehrender Aufgaben bis hin zur Vorhersage von Markttrends – KI revolutioniert unsere Arbeitsweise auf vielfältige Weise. 

Als KI-Enthusiast sehe ich jeden Tag neue Möglichkeiten, wie diese Technologie unsere Produktivität steigert und innovative Lösungen ermöglicht.

Welche Anwendungen von KI begeistern euch am meisten? Teilt eure Gedanken in den Kommentaren! 

#KünstlicheIntelligenz #Innovation #ZukunftDerArbeit“

Um zu sehen, wie beliebt KI-Modelle sind, die Texte wie dieses Zitat generieren können, muss man nur einige Beiträge und Profilbeschreibungen auf LinkedIn checken: Der Großteil klingt nicht nur wie aus einem Guss, er ist laut KI-Content Detektoren wie Copyleaks und GPTZero mithilfe eines KI-Tool erzeugt. Anhand von Satzbau, Grammatik und wiederkehrenden Formulierungen erkennen diese, ob und zu welchem Anteil Texte synthetisch erstellt wurden. Doch sollten nicht gerade persönliche Inhalte in der Redaktionellen Gesellschaft auch selbst geschrieben sein? 

Eine Studie von Statista fand 2023 heraus, dass 19,3% der Berufstätigen ChatGPT zur Erstellung von Inhalten nutzen – weitere 21,4% zur Zusammenfassung. Die Forschenden des Europol Innovation Labs schätzen sogar, dass bis 2026 90% des Internet-Contents KI-generiert sein wird. 

ChatGPT: Schnell, günstig, flexibel? 

Der Hype um ChatGPT und andere Large Language Models ist dabei leicht nachvollziehbar:  

  1. Sie sind schnell, 

  2. in allen möglichen Fachgebieten zu verwenden und 

  3. noch recht günstig. 

Neben LinkedIn-Posts lassen sich auch sämtliche sich wiederholende Texte wie beispielsweise Wetterberichte mithilfe von KI-Tools generieren und große Mengen von Daten auswerten. Zeit- und Mitarbeiterersparnis, sagen die einen. Inspiration für neue Inhalte, hoffen die anderen. Doch wie bei allen Dingen, gibt es eine Kehrseite: Denn den Textgeneratoren fehlt noch die notwendige Tiefe. KI kann dazu führen, dass „weniger Leute mehr arbeiten müssen, um weniger gute Qualität zu liefern“, betont der Informatiker und Philosoph Jürgen Geuter in einem Interview mit Turi2. Und das ist längst nicht alles. 

„ChatGPT fühlt sich an wie Junk-Food – schwer zu widerstehen, leicht zu konsumieren, aber letztendlich schlecht für den Verbraucher“, formulierte es ein Studienteilnehmer an der Harvard Business School letzten Sommer. 

In der Studie mussten er und weitere Strategy Consultants fiktive Praxisaufgaben entweder zu neuen Produktideen oder zur Lösung von Geschäftsproblemen bearbeiten. Diejenigen, die dabei keine technischen Hilfsmittel hatten, beantworteten 85% aller Fragen richtig – während jene, die Hilfe von ChatGPT erhielten, nur auf 70% kamen. Und wenn die KI auf die Aufgabe zuvor trainiert wurde, waren sogar nur 60% der Antworten korrekt. Wie ist das möglich?

Wenn KI halluziniert 

Um eine KI zu trainieren, werden alle möglichen Quellen verwendet: YouTube-Videos, Podcasts, selbstgeschriebene Wikipedia-Einträge. Inhalte, die zum Teil Urhebergesetze missachten und sogar Falschinformationen enthalten. Das hat zur Folge, dass KI-Bots aktuell noch gerne „halluzinieren“. Also je nach Anbieter zwischen 3 und 27 % ihrer Outputs erfinden.  

Um Letzterem entgegenzuwirken, gibt es bereits menschliche Tester:innen. Bei OpenAI, der Firma hinter ChatGPT, bewerten etwa die Tester:innen die Ergebnisse des Chatbots und helfen so, nützliche und wahrheitsgemäße Antworten von Falschaussagen zu unterscheiden. Mithilfe einer Technik namens „Reinforcement Learning“ analysiert das System dann wochenlang die Bewertungen, um besser zu verstehen, was Fakt und was Fiktion ist. 

Blicken wir erneut auf die eingangs erwähnten LinkedIn-Einträge, fehlt es demnach diesen Posts nicht nur an Tiefe, sie können darüber hinaus auch Falschwahrheiten beinhalten. Und wenn wir dann noch die aktuellen Hochrechnungen von KI-Content berücksichtigen, summieren sich diese Inhalte mehr und mehr. „Das Web wird mit Schrott-Content überschwemmt“, heißt es in der Computerwoche. Hinzu kommt, dass durch die vielen gleichen Inhalte, der endlose Kampf um das beste Suchmaschinenranking nicht nur erschwert, sondern die Frage nach „Wer klaut hier von wem?“ noch drängender wird.  

 

Fünf Gründe für selbst erstellten Content 

Das führt uns zur Einstiegsfrage zurück: Sollten (besonders persönliche) Inhalte in der Redaktionellen Gesellschaft selbst geschrieben sein? 

Ja! Dazu fünf Gründe: 

1. Originalität:

Selbst erstellter Content ermöglicht es, etwas Einzigartiges und Originelles zu bieten. Während KI-Modelle wie ChatGPT in der Lage sind, Texte zu generieren, fehlt ihnen oft die kreative Einzigartigkeit und Authentizität, „das Reagieren auf nicht erwartbare Ereignisse und das unstrukturierte Verarbeiten von Informationen“, wie auch Steffen Kühne, Tech Lead im AI und Automation Lab des Bayerischen Rundfunks, bei einer Veranstaltung im März sagte.

2. Branding und Identität:

Durch selbst erstellten Content können Unternehmen wie Individuen ihre eigene Identität und Marke aufbauen. Der von Menschen erstellte Content trägt oft die Persönlichkeit, Stimme und Werte des Erstellers, was dabei hilft, eine Verbindung zu Zielgruppen aufzubauen. 

3. Fachwissen und Erfahrung:

Beim Erstellen von Content können Menschen ihr Fachwissen, ihre Erfahrungen und ihre Perspektiven einbringen. Dies ermöglicht ihnen, schwierige Inhalte zu verstehen, diese richtig einzuordnen und zu bewerten. Außerdem üben sie, selbstständig Interviews zu führen. Dies ermöglicht es, tiefergehende Einblicke und fundierte Informationen zu vermitteln, die KI-Modelle möglicherweise nicht erfassen können. Im Gegenteil: Sie sind eher oberflächlich und neigen dazu, sich bei längeren Texten zu wiederholen. 

4. Aktualität:

Auch wenn stetig neue Daten zum Training gesammelt werden, haben die KI-Modelle von aktuellen Ereignissen keine Kenntnis. Echten Autor:innen ist hingegen möglich, aktuelle Themen zu bewerten.

5. Vertrauen und Glaubwürdigkeit 

Originaler Content, der von Menschen erzeugt wurde, kann dazu beitragen, Vertrauen und Glaubwürdigkeit aufzubauen. Darüber hinaus ist es nur Menschen möglich, Fact Checking zu betreiben. So kommt es, dass Menschen dazu tendieren, menschlichen Quellen eher zu vertrauen als KI-generierten Texten – insbesondere in Bereichen, die Fachwissen oder emotionale Intelligenz erfordern. Die Medienethikerin Jessica Heesen betonte im SWR, dass dies besonders für den Journalismus gilt. Es braucht am Ende immer eine „menschliche Aufsicht“. 

Zur Person

Ben Seegatz ist seit 2019 Associate Data Scientist bei der LOOPING GROUP. Er studierte Gesellschafts- und Wirtschaftskommunikation an der Universität der Künste Berlin und Business Informatics an der Wirtschaftsuniversität Wien. Sein Forschungsinteresse konzentrierte sich dabei auf Urbanistik, dem gesellschaftlichen Einfluss von Social Bots und Natural Language Processing. Parallel zur Fortsetzung seiner akademischen Bildung arbeitet er künstlerisch mit digitalen Medien und künstlicher Intelligenz.

Ping logo black.

Our newsletter P!NG collects insights from thought leaders. For thought leaders.