Society | Start Europe Up

Der Kampf KI gegen Fake-News

Das Start-Up "Factinsect" warnt NutzerInnen mit künstlicher Intelligenz vor Fehlinformationen und bietet Inhaltsvergleiche mit Qualitätsquellen. Endlich wieder Klarheit?
Factinsect
Foto: Factinsect

Kaum jemand bleibt von der spaltenden Machtdynamik der Desinformation im aktuellen digitalen Zeitalter verschont. Bei der Arbeit, am Esstisch, in der Schule oder im Ehebett, überall keimen aus der Saht von diversen Medien, politischen InteressensvertreterInnen, Trollen, PropagandistInnen oder sogar Militäreinrichtungen Polarisierung und Zwietracht hervor. Viele Wissen mittlerweile, dass Desinformation, über den individuellen Horizont hinaus, verheerende Auswirkungen auf eine demokratische und größtenteils meinungsfreie Gesellschaft haben kann. Regelrechte Informationskriege greifen immer wieder die verhältnismäßig schutzlose ‚Informationsgesellschaft‘ an, deren Struktur von den Individuen ausgeht, die in sämtlichen Lebensbereichen auf Informations- und Technologieprothesen zur Bewältigung ihres Alltags angewiesen sind, und dadurch die Ebene der Plattformriesen sozialer Medien stützen, die mit ihren Algorithmen politische Prozesse steuern, die Medienlandschaft umpflügen, strategischen Datenhandel betreiben und die Wahrnehmung der Realität verändern. Und genau auf dieser Ebene treffen Geschosse der Desinformation die Pfeiler der Demokratie und destabilisieren den Zusammenhalt. Neben den eher dürftigen rechtlichen Regulationen dieser digitalen Gewalten, wollen Innovationen, wie das 2020 gegründete Grazer Start-Up: „Factinsect, das Problem der Informationsflut an den Wurzeln der Desinformation packen und den Menschen wieder die Macht über ihren Informationskonsum zurückgeben.

 

 

Factinsect ist eine Anwendung, die zur automatisierten Faktenüberprüfung und für Inhaltsvergleiche von Nachrichteninhalten, Blogeinträgen und sonstigen Informationen aus dem Internet verwendet werden kann. Die Anwendung kann sowohl in die eigene Internetbrowserleiste installiert als auch direkt auf der Website factinsect.com/de verwendet werden. Die Software-Entwicklerin, CEO und Mitbegründerin Romana Dorfer, ist Spezialistin für Machine Learning und entwickelte für Ihre Innovation eine künstliche Intelligenz, die Textinhalte mit ausgewählten Qualitäts-Quellen vergleicht und mittels Ampelsystem einschätzt, ob der jeweilige Inhalt bestätigt, widersprüchlich eingeschätzt oder widerlegt werden kann. Mitbegründerin sowie Expertin für Medienkompetenz und Marketing Silja Kempinger, erklärt im Einführungsvideo, dass, es sich bei den Vergleichsquellen um „ausgewählte Qualitätsmedien“ handelt. Warum es sich bei dieser Zukunftsweisung um ein zweischneidiges Schwert handelt, das eine kritische Betrachtung nötig hat, soll nun erörtert werden.

Unsere Vision ist es, der Gesellschaft eine gemeinsame Faktenbasis zurückzugeben.


Bei der Recherche stimmten die positive mediale Resonanz, die Vielzahl von Nominierungen und Auszeichnung sowie die hoffnungsgebende Idee hinter dem Start-Up erst einmal euphorisch. Im Jahr 2020 waren, nach skandalösen Jahren der Flüchtlingskrise, der Trump-Amtszeit, des Genozids in Myanmar sowie der einlaufenden Coronapandemie, rund 15.000 Menschen als Content-ModeratorInnen bei Facebook beschäftigt, wie der Autor Fritz Jergitsch in seinem 2021 erschienen Buch „die Geister, die ich teilte" beschreibt. Diese ModeratorInnen analysieren an einem Tag rund 3 Millionen Inhalte auf ihren Wahrheitsgehalt, wobei durch die extremen Datenmengen und problematischen Interpretationslagen 9 von 10 dieser Faktenchecks danebengreifen. Factinsect scheint demgegenüber zunächst, wie Musik in den Ohren. So eröffnet Romana Dorfer im Gespräch: „Die Anwendung von künstlicher Intelligenz ist in der Content-Moderation ein großer Vorteil. Dies beginnt bereits, wenn es darum geht Inhalte zu sortieren, zu klassifizieren und untereinander zu vergleichen... Unsere Stärke ist hier zudem die Transparenz, die wir den NutzerInnen bieten, da klar veranschaulicht wird, welche Quellen bestimmte Inhalte widerlegen oder bestätigen, wobei wir auch die Möglichkeit eingebaut haben, Fehlinterpretationen zu melden."


Der/die MedienkonsumentIn würde also aktiv in die Prüfung der Inhalte miteinbezogen, wobei der Wahrheitsgehalt eines Inhalts in Symbiose zwischen künstlicher Intelligenz und Nutzerinnen ermittelt werden könnte. Erstere stellt diverse Quellen zum Abgleich und zur Differenzierung bereit und kann Warnhinweise aussprechen, Letztere können sich ein breites Bild über Situationen und Sachlagen machen und ihre Ansichten aus einer breiten Quellenlage Speisen, die sonstige Horizonte übersteigt. Ein fruchtbarer Ansatz, der sowohl Medienkompetenz fördern sowie den Bereich der personalintensiven und teuren Content-Moderation bedeutend entlasten könnte. Nun aber zur Praxis!

 


Der folgenden Kritik vorangestellt sei, dass es sich dabei um den subjektiven Selbstversuch des Autors handelt und somit die eigene Erprobung der LeserInnen angeraten ist, um vor fehlerhaften Verallgemeinerungen zu bewahren: Bei den ersten Probeläufen auf der Website fällt nämlich auf, dass die Faktenchecks auf der Homepage (sei dies beim Einfügen von Artikellinks, als auch bei der Texteingabe) meist wenige Ergebnisse auswerfen. Die Anzahl der Vergleichsquellen beim Anwenden des Browser-Plugins scheint etwas besser zu funktionieren, jedoch werden häufig Quellen ausgeworfen, die inhaltlich nicht zur geprüften Aussage passen. Der Verdacht besteht hier, dass die KI Inhalte anhand von Schlüsselbegriffen sortiert, jedoch die Semantik von Texten oftmals fehldeutet. Erlaubt man sich hier ein Späßchen und checkt Bild-Artikel auf ihre Glaubwürdigkeit, kann es passieren, dass man »geprüft« verwirrter von dannen zieht als »ungeprüft«. So verweist Factinsect bei der Kritik des CSU-Chefs Markus Söders an Deutschlands Gesundheitsminister Karl Lauterbach: „es sei unglaubwürdig vor Corona zu warnen und Kiffen zu erlauben“ (Bild, 30.10.22) auf einen Artikel, in welchem sich Söder für die Wiedereinführung für 3-G Regeln am Arbeitsplatz ausspricht. Unterhaltend, aber nicht semantisch verwandt. Der nächste Test ergab im Übrigen wieder ein anderes Ergebnis, aber summa summarum schnitt Factinsect im Test dieses Rechercherahmens eher unzufriedenstellend ab.


Den zweiten Kritikpunkt könnte man an das Verständnis von Qualitätsmedien als Wahrheitskriterium richten. Auf der Website findet sich in der Erklärung von „Unparteilichkeit, Fairness und Transparenz“, dass für Factinsect ausgewählte österreichische Qualitätsmedien als Vergleichskriterium dienen, die sich an den ‚journalistischen Ehrencodex‘ halten, was gründliche Recherche, unabhängige Berichterstattung, Differenzierung persönlicher Meinungen von objektiven Berichten sowie transparente Fehlerkorrektur, einschließt. Daher gelten Artikel und Aussagen derartiger Medien als Wahrheitskriterium von Factinsect, wobei der Abgleich verschiedener Informationen aus mehreren Qualitätsquellen, dazu verhilft, aus einer Vielzahl von Standpunkten ein differenzierteres Bild von Themen zu erhalten.

Unser System schlägt nur an, wenn Qualitätsmedien über interessierte Thematiken bereits geschrieben haben und stellt diese Inhalte zum Vergleich dar


Wenngleich die Ambition der Qualitätsmedien, den ‚journalistischen Ehrenkodex‘ einzuhalten, nicht direkt in Abrede gestellt werden sollte, lässt sich durch die prekäre Lage des Journalismus, dennoch an vielen Stellen die notwendige „Objektivität“ der Berichterstattung für ein Wahrheitskriterium für Inhaltsabgleiche in Frage stellen. Der Überlebenskampf um Quoten, sowie politische Eingriffe oder Verzerrungen der Medienlandschaft durch neue 'Qualitätsstandards' der Algorithmen von Social-Media Plattformen sind nur einige Beispiele, die immer wieder gegen eine ‚objektive Berichterstattung‘ arbeiten. Der künstlichen Intelligenz von Factinsect wären daher wissenschaftliche Publikationen, wie beispielsweise Journale, Studien oder Konferenzpapiere als angemesseneres Wahrheitskriterium angeraten. Wie im Journalismus stellt sich hier jedoch vermutlich wieder dieselbe Hürde, denn Wissen und Information ist nicht billig oder gar gratis, wie es mittlerweile selbstverständlich scheint. Nach den zehn Gratisversuchen pro Monat ist allerdings ein 3,90€ Abo für weitere Checks fällig, was aber je nach Prüfungsqualität durchaus Berechtigung findet und sogar die Tür zu einer höheren Qualität an Vergleichsquellen öffnen könnte. Bis dato erweist sich die Anwendung zumindest recht zirkulär: Welche Perspektive habe ich gewonnen, wenn ich einen Stol.it-Artikel durch einen tt.com-Artikel bestätige?

 


Dennoch, obgleich der harschen Kritik stellt Factinsect keineswegs einen Fehlschlag dar. Im Gegenteil! Trotz der erwähnten Kritikpunkte stößt die Innovation eine zukunftsträchtige und essenzielle Debatte an, die uns die richtige Richtung aufweist, wenn es um den Umgang mit Information geht. Fasst man nochmals konkret die Ambition des Start-Ups, so ist diese: „eine gemeinsame Faktenbasis für ein konstruktives Miteinander zu schaffen“. Dabei, so Dorfer im Gespräch: „ist künstliche Intelligenz ein bereicherndes Tool, das Medienkompetenz fördern kann. Die Person sollte bei der Prüfung auf Wahrheitsgehalt eben keinesfalls ausgeklammert werden, denn ob Informationen wirklich falsch oder wahr sind oder sein können, bedarf immer noch menschlicher Einschätzung. Ein zu hohes Vertrauen in künstliche Intelligenz kann ebenso schädlich sein, wie die Wissensgenerierung durch eine solche.

In Krisensituationen treibt das menschliche Verlangen nach Kontrolle ein Fehldenken an


Und dies ist vorerst der springende Punkt! Denn es gilt wieder die Oberhand über den Informationsdschungel zu gewinnen, den wir uns schufen und dies gelingt nur durch zunehmende Medienkompetenzen, die bis dato leider hinter digitalen Möglichkeiten des Austausches und der Vernetzung hinterher hinken. Wenngleich das Ampelsystem von Factinsect die ein oder andere Verfehlung einfährt oder Qualitätsmedien als Wahrheitskriterien fraglich scheinen, so geht es schlicht um das Abwägen und Gegenüberstellen von diversen Bezugsquellen für Informationen. Erst in der Diversifizierung von Informationen entsteht die Möglichkeit zur konstruktiven Diskussion und Entpolarisierung. Romana Dorfer spricht auch von der Eindämmung von Fehldenken, das vor allem in Krisensituationen spürbaren Zuwachs erfahren hat: „In Krisensituationen treibt das menschliche Verlangen nach Kontrolle ein Fehldenken an, welches in der Kognitionspsychologie als 'confirmation bias' (Bestätigungsfehler) bezeichnet wird. Dabei sucht man Informationen gezielt zur Bestätigung eigener Meinungen, Vermutungen und Weltbilder. Die Wahrheit wird dann rund um die eigene Meinung konstruiert.


Es scheint bis noch ungewiss welche Ausmaße künstliche Intelligenz in der Bewältigung und Regulation des globalen Informationsgeschehens annehmen kann. Bei der Bewältigung der unglaublichen Mengen an Datenströme ist sie mit Sicherheit das wertvollste aller Instrumente, allerdings kann der Mensch als interpretierende Kraft von Wahrheit keineswegs ausgeblendet werden. Welchen Wert die Betitelung „KI-geprüft“ einnehmen wird, steht ebenso noch nicht fest. Aller Zukunftsphilosophie vorangestellt sei jedoch, dass Factinsect mit Sicherheit die richtige Richtung eingeschlagen hat. Die Idee hinter dem Start-Up hat das Potenzial den Menschen die Macht über ihr Urteilsvermögen wieder vermehrt durch Medienkompetenz und Inhaltsvergleiche zurückzugeben oder vielleicht sogar in einem noch nie dagewesenen Maße herzustellen?