Die Integrität der Wikipedia ist bedroht: Fünf Prozent neuer englischer Artikel seien KI-generiert, findet eine Studie heraus. Während in der englischen Wikipedia bereits Aufräumtrupps aktiv sind, diskutiert die deutschsprachige Community noch über ihren Umgang mit den maschinellen Autoren.
Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.
Dazu verlinke ich den EN Artikel Why AI Can Push You to Make the Wrong Decision at Work.
Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.
Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.
Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.
Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.