Vad många inte vet är att redigerandet på Wikipedia till stor del utförs av ”bots”, men även artikelskapande sig kan vara robotproducerad text. Internet World beskriver i artikeln ”Hans robot har skrivit halva Wikipedia” om hur det svenskspråkiga Wikipedia försetts med över 500,000 artiklar som postats av ”Lsjbot” skapad av Sverker Johansson på Dalarnas högskola.
Datorer plågar redan akademiska kretsar med vetenskapliga pseudoartiklar skrivna av robotar, men samtidigt diskuteras möjligheterna med robotjournalister och hur läsarna ska kunna se skillnad på robottext och hjärnproducerad text.
I en artikel i New Scientist med rubriken: ”Rise of robot reporters: when software writes the news” beskrivs hur en robot publicerade en artikel när en jordbävning skakade Kalifornien och redaktionen tömdes på folk. Här var en maskin faktiskt behjälplig.
Guardian-artikeln: ”How computer-generated fake papers are flooding academia” handlar om hur några MIT-studenter skapade ett dataprogram som skrev akademiska rapporter som accepterades för publicering. När studenterna la ut dataprogrammet som hittade på texterna på webben började forskare ladda ner det och använda det!
Science Daily redovisar i artikeln: ”Do you know whether this story was written by a human? Computer generated vs. journalistic content”, svensk forskning på hur en läsare uppfattar robotproducerad nyhetsjournalistik.
Studien genomförd av Christer Clerwall påf Karlstads universitet presenterade ett antal artiklar för en läsare. Artiklarna var antingen skrivna av människor eller datorer. Läsarna fick sedan svara på frågor om hur de uppfattade texterna utifrån parametrar som kvalitet, trovärdighet och objektivitet.
Resultatet var anmärkningsvärt. Det visade att journalisttexterna uppfattades som sammanhållna, välskrivna och trevliga att läsa. Datorgenererad text uppfattades visserligen som tråkig, men även som trovärdig och objektiv. Generellt uppfattade läsarna att det var svårt att avgöra om artiklarna var människo- eller datorproducerade.