AI liegt en vervalst zoals de linkse programmeurs die haar voeden

Illustratiebeeld. Shutterstock

Privacy

AI liegt en vervalst zoals de linkse programmeurs die haar voeden

Redactie PAL

AI-systemen als ChatGPT en Gemini kunnen niet alleen fouten maken, ze kunnen ook bewust liegen en vervalsen. Daarvoor waarschuwt Pallieterke-auteur Paul Bäumer deze week in zijn column. Auteur Peter J. Hasson en professor Jonathan Turley ontdekten dat op de harde manier toen ze hun eigen namen opzochten. De resultaten waren niet alleen fout, ze waren compleet verzonnen – met fictieve artikels, valse citaten en zelfs beschuldigingen van seksueel wangedrag die nooit hebben plaatsgevonden.

Geen advertenties meer?

Ingelogde abonnees steunen niet alleen een van de enige kritische en onafhankelijke media, maar zien ook geen vervelende advertenties. Abonneer je snel en eenvoudig en krijg meteen toegang tot vele duizenden exclusieve artikelen!

Maak hieronder je keuze voor het gewenste abonnement:

Doorlopend abonnement

Maandelijks opzegbaar

€ 9,00

per maand

Eenmalig betalen

3 maanden PAL-abonnement

€ 27,00

per kwartaal

Geen gedoe

12 maanden PAL-abonnement

€ 108,00

per jaar

Liever ook op papier? Bekijk alle abonnementen!

Het doorlopend abonnement wordt automatisch verlengd voor steeds één maand.

Liever ook op papier? Bekijk al onze abonnementen!

Steun het vrije woord met een online abonnement van 3 maanden via een eenmalige betaling.

Liever ook op papier? Bekijk al onze abonnementen!

Steun het vrije woord met een eenmalige betaling en je zit een jaar goed.

Log hieronder in om dit bericht volledig te lezen. Ben je al ingelogd, kijk dan op je account of je nog een actief abonnement hebt.

Hasson, auteur van ‘The Manipulators’, vroeg Gemini een recensie van zijn boek te schrijven. Het AI-programma van Google kraakte het werk genadeloos af met de bewering dat het “geen concreet bewijsmateriaal bevat en alleen steunt op anekdotische informatie”. Toen Hasson doorvroeg wie dat had geschreven, leverde Gemini een lijstje van vier vernietigende recensies in The Washington Free Beacon, The New York Times en Wired. Het probleem? Die recensies bestonden helemaal niet. Eén krant had wel over zijn boek geschreven, maar juist zeer lovend.

Fictieve beschuldigingen van seksueel wangedrag

Professor Jonathan Turley van de George Washington University maakte iets nog griezeliger mee. ChatGPT beschuldigde hem van “sexual harassment” tijdens een studiereis in Alaska in 2018. Het systeem verzоn daarbij een artikel in The Washington Post, compleet met citaten. “Die reis heeft zelfs nooit plaatsgevonden”, aldus Turley in een interview met Fox News. “Ik onderneem nooit zulke uitstappen met studenten.” Ook The Washington Post viel uit de lucht – de krant had nooit zo’n artikel gepubliceerd.

Het gevaar zit hem volgens Turley vooral in de onzichtbaarheid: “Bij AI-systemen is het alsof men tegen een muur praat. Je krijgt gewoon geen antwoord. Niemand lijkt het gedaan te hebben.” Tegen journalisten kun je juridisch optreden, maar AI laat geen spoor achter. “Zoiets kan mensen kapotmaken natuurlijk”, waarschuwt hij.

Zijn conclusie is hard maar helder: “Een algoritme is maar zo goed als de mensen die het programmeren.”

Lees hier de volledige analyse van Paul Bäumer.

PAL Nieuwsbrief

schrijf je gratis in

Blijf op de hoogte met onze dagelijkse nieuwsbrief

Plaats een reactie

Delen