KI im Journalismus – Recherchehilfe und Rechercheobjekt

Künstliche Intelligenz findet zunehmend Verwendung im Journalismus, bei SRF vor allem bei Recherchen und im Datenjournalismus. SRF-Datenjournalist Julian Schmidli erzählt aus seinem Arbeitsalltag über die gewonnene Effizienz, spricht im Interview aber auch über die Chancen und Gefahren der grossen Sprachmodelle.

Was würdest du tun, wenn du 100 Praktikantinnen und Praktikanten hättest? Als ich diese Frage zum ersten Mal hörte, sass ich in einem stickigen Raum in Denver, Colorado, wo 2016 die NICAR stattfand, die grösste Datenjournalismus-Konferenz der Welt. Mir fiel so einiges ein, wobei mir Praktikanten die Arbeit erleichtern könnten: PDFs in Tabellen umwandeln. Tausende von Tabellenzeilen nach Duplikaten durchsuchen. Hunderttausende von Datenpunkten klassifizieren. Die aufwendigen und eintönigen Aufgaben eines Datenjournalisten halt. Dann zeigte uns der Referent ein kleines Tool, das ich mit eigenen Daten trainieren konnte – und das dann in Sekunden einen Datensatz bearbeitete, wofür ich sonst Tage gebraucht hätte. Oder 100 Praktikantinnen. Das Tool funktionierte mit sogenanntem maschinellem Lernen, einer vergleichsweise simplen Form von künstlicher Intelligenz. Aber ich hatte angebissen.

Vielseitige Anwendung

Ein Jahr später nutzten wir maschinelles Lernen, um Millionen von Instagram-Followerinnen und -Follower zu klassifizieren und herauszufinden, welche Schweizer Influencer Fake-Follower gekauft hatten. Die journalistische Geschichte, die wir auf srf.ch und im «10vor10» publizierten, deckte einen Missstand in dieser neuen Industrie auf und schlug hohe Wellen. Die Idee dazu hatte übrigens unsere damalige Praktikantin. Zurzeit promoviert sie im Silicon Valley zu künstlicher Intelligenz. So viel zur Ausgangsfrage.

Heute arbeite ich als Teil von SRF Data, dem Datenjournalismus-Team von SRF, fast täglich mit Formen von künstlicher Intelligenz. Da wir viel mit Software arbeiten, nutzen wir verschiedene KI-Anwendungen.Gleichzeitig sind KI und ihre Hersteller, mehrheitlich die Big-Tech- Konzerne dieser Welt, auch Recherchesubjekte von uns. Wir sind also Nutzer und Kritikerinnen gleichzeitig – und das eine informiert das andere.

Neue Ansätze dank GitHub und ChatGPT

Aktuell sind vor allem grosse Sprachmodelle, sogenannte LLMs, im Fokus der Öffentlichkeit. Ich selbst nutze sie fast täglich – wie inzwischen auch viele andere Programmiererinnen und Software-Entwickler. Ich habe selbst keine Ausbildung als Programmierer genossen. Umso hilfreicher sind für mich LLM-Tutoren wie GitHub Copilot. Ein KI-Tool, das mir wie ein erfahrener Programmierer stets über die Schultern schaut und mir hilft, Fehler zu vermeiden oder zu finden – und mich um ein Vielfaches schneller macht. Darin sehe ich übrigens auch eine der grössten Chancen in der Nutzung von künstlicher Intelligenz: Jede und jeder kann sie als persönlichen Tutor einsetzen – sei es bei den Hausaufgaben, bei der Recherche oder beim Schreiben.

Ich unterrichte selbst auch Datenjournalismus, etwa an der Journalistenschule MAZ. Dort lernen die Studentinnen und Studenten nicht nur die herkömmlichen Wege, um mit Daten zu arbeiten, sondern auch die Möglichkeiten, wie sie zum Beispiel ChatGPT nutzen können – indem das Programm ihnen hilft, Daten zu verifizieren, oder eine Analyse selbst nochmals durchführt und Schritt für Schritt erklärt, wie es vorgegangen ist. Gerade weil Datenjournalismus oft nach bekannten Rezepten funktioniert, also vordefinierte Strukturen hat, und die technische Komponente zentral ist, eignet sich der Einsatz von KI meiner Meinung nach besonders gut.

Versteckte Risiken

Natürlich verbergen sich auch Gefahren hinter dieser Technologie. Es ist ein riesiges Problem, dass die meisten dieser LLMs grossen Tech-Firmen gehören
und komplett intransparent sind, wie genau sie funktionieren und mit welchen Daten sie trainiert wurden. Und noch immer ist die Gefahr real, dass ein LLM Informationen einfach erfindet (sogenanntes Halluzinieren). So haben wir im letzten Oktober über ein Experiment berichtet, an dem wir selbst mit teilgenommen hatten. Und zwar haben wir den Chatbot Bing-Chat, der auf dem LLM GPT-3.5 aufbaut, Fragen zu den eidgenössischen Wahlen gestellt. Oft lag er richtig, aber immer wieder komplett falsch. So erfand das LLM Skandale oder gab ein falsches Wahldatum heraus – für die persönliche Meinungsbildung fatal! Auch werden derzeit in den USA immer mehr Skandale von Medien publik, die teilweise ihre Artikel von KI generieren liessen, ohne dies zu kennzeichnen. Artikel, die vor Fehlern und Falschaussagen nur so strotzten.

Insgesamt glaube ich aber, dass KI schon bald nicht mehr aus dem Journalismus wegzudenken sein wird. Wer würde heute freiwillig auf Google als Suchhilfe verzichten (das übrigens auch schon stark mit KI funktioniert)? Im Gegenzug wird KI hoffentlich Journalistinnen und Journalisten helfen, schneller den wesentlichen Fragen auf den Grund zu gehen und sich den zentralen journalistischen Aufgaben wie dem Abwägen und Gewichten widmen zu können, ohne sich zu sehr mit eintönigen Aufgaben abmühen zu müssen – und die Praktikantinnen und Praktikanten dieser Welt hoffentlich ebenso. Für uns Datenjournalisten werden KI-Tools künftig wohl auch stärker zu Rechercheobjekten, sei es in Bereichen wie strukturelle Diskriminierung, Urheberrecht oder Datenschutz.

Text: Julian Schmidli

Bild: SRF

Video: SRG.D

Kommentar

Kommentarfunktion deaktiviert

Uns ist es wichtig, Kommentare möglichst schnell zu sichten und freizugeben. Deshalb ist das Kommentieren bei älteren Artikeln und Sendungen nicht mehr möglich.

Weitere Neuigkeiten