Fejl og Fakta-spalten i mandagens Politiken har sjældent indeholdt så mange rettelser til én artikel.
Det drejede sig om en faktaboks om forfatteren Harald Voetmann, der blev interviewet til avisen i anledning af sin nye roman, »Lysmesse«.
I faktaboksen stod fejlagtigt, at Voetmann har skrevet bøgerne »Konkylier« og »Vandmærket«.
Der stod også, at Voetmann havde modtaget Montanas Litteraturpris, men det har han ikke.
Der stod korrekt, at han fik Kritikerprisen, men der stod til gengæld, at han modtog den for »Helioskatastrofen«, som han ikke har skrevet. Der stod også, at han modtog Politikens Frit Flet-pris for bogen »Sotades’ kiste« – men den egentlige begrundelse for prisen var hans »mageløse forfatterskab«.
»Endelig stod der, at han blev medlem af Det Danske Akademi i 2022, men det skete i 2021. Det var vist det,« skrev Bjarne Schilling, læsernes redaktør på Politiken.

Årsagen til de mange fejl skal findes i et nyt kunstig intelligensværktøj, som Politikens journalister har fået adgang til. Den oplysning stod ikke i Fejl og Fakta-spalten i printavisen – men det fremgår til gengæld af rettelsen af den digitale version af artiklen, hvori Politiken beklager fejlene.
Ai-værktøjet skal blandt andet hjælpe avisens journalister med indholdsforslag til faktabokse, og forslagene skulle – efter planen – basere sig på svar fra Politikens arkiv.
Chefredaktør beklager
Politiken har interviewet chefredaktør Amalie Kestler om fejlene, som hun kalder »beklagelige«, og siger avisen er »rigtig kede af«.
Hun siger, at de ikke ville være sket, hvis avisens retningslinjer var blevet fulgt. For faktaboksen blev generet i en ai-chatfunktion fremfor at blive generet i en ai-funktion, der udelukkende baserer sig på Politikens arkiv af artikler. Siden blev faktaboksen ikke faktatjekket.
Amalie Kestler bliver spurgt, hvorvidt det er journalistisk bekymrende, at ai laver disse såkaldte »hallucinationer«, hvor den opfinder fakta.
Kestler svarer:
»Jeg tror, at det her er et spørgsmål om, hvordan man bruger Magna (Politikens interne ai-system, red.), hvordan bruger man ai,« svarer hun
»Uanset om det er Magna, OpenAI eller alle mulige andre ai-værktøjer, der er derude, så skal man ikke bruge dem til fri informationssøgning. Og det opfordrer vi heller ikke vores journalister til at gøre. Vi opfordrer ikke vores journalister til at skrive et eller andet ind i en chat og så bare tage teksten. Det er heller ikke min oplevelse, at det er den måde, det er blevet brugt på«, siger Amalie Kestler til Politiken.
Drømmer chatbots om elektriske får?
Problemet med at bruge såkaldt kunstig intelligens, såsom ChatGPT, Claude og andre lignende sprogmodeller, er, at de ikke nødvendigvis kan se forskel på sandt og falsk.
Når kunstig intelligens skråsikkert påstår, at noget er sandt, selvom det er falsk, kalder man det hallucinationer.
Sådanne hallucinationer var årsag til, at to amerikanske aviser – Chicago Sun-Times og The Inquirer – i forrige uge publicerede en liste over romananbefalinger til sommerferien, hvoraf to tredjedele af bøgerne ikke eksisterer, skriver ArsTechnica.
Listen var lavet af en freelancejournalist, som havde benyttet sig af kunstig intelligens, og begge aviser har beklaget, skriver The New York Times.
Hvad angår indeværende avis, så har Berlingske ikke et værktøj som Politikens. Avisens medarbejdere får snart mulighed for at benytte sig af en »AI Sandbox« – et lukket system, der vil kunne bruges til blandt andet bearbejdning af tekst, udkast til overskrifter, oversættelser og analyse af datasæt.
I Berlingskes retningslinjer lyder det:
»Uanset hvordan du anvender AI Sandbox, skal output altid betragtes som et udkast eller som inspiration, og det må aldrig anvendes direkte uden gennemlæsning, redigering og faglig vurdering af en medarbejder.«




