ChatGPT is sinds gisteren een jaar oud, en journalist en docent-onderzoeker Jessy de Cooker van Fontys Journalistiek doet onderzoek naar AI. In dit interview lees je over hoe journalisten aan de gang gaan met ChatGPT, en de mythes en misconcepties rondom AI.
Hoe gebruik jij zelf ChatGPT?
‘Incidenteel, maar dat is eigenlijk vooral wanneer ik zelf vastloop. Als ik bijvoorbeeld een lead heb geschreven waar ik niet tevreden over ben, en ik ben ‘m al vijf minuten aan het herschrijven en ik kom er maar niet uit… Dan denk ik, misschien scheelt het wat als ik met een goede prompt een variatie op die lead kan genereren. En dan komen er wat suggesties uit, waarmee ik dan weer door kan. Dan laat ik ChatGPT misschien tien variaties genereren, waarvan er drie wel aardig zijn. Ze zijn niet altijd kant en klaar.’
Heb je meer voorbeelden voor hoe journalisten ChatGPT kunnen gebruiken?
‘We zijn met het Lectoraat Journalistiek en Verantwoorde Innovatie zijn op dit moment bezig met een onderzoek waarin we onderzoeksjournalisten bevragen naar hun gebruik van AI. Daar zit soms ook gebruik in van ChatGPT. Bij een redactie zagen we dat zij een variant op ChatGPT hebben ingebouwd in hun redactiesysteem. Als de journalist een lead of tussenkopjes wil genereren bijvoorbeeld, dan gebruiken ze dat systeem.
‘Bij Innovation Origins, een medium uit Eindhoven die veel over technologie schrijft, hebben ze een systeem gemaakt dat teksten kan genereren op basis van prompts. Je voert daar bepaalde informatie in, en de output lijkt op inhoud van Innovation Origins. Er is dan altijd een journalist die de output controleert, en om andere variaties vraagt als de output niet goed is. Waar het journalistiek ethisch verantwoord is, maakt Innovation Origins ook gebruik van AI-gegenereerde afbeeldingen. Ze laten dat wel transparant zien. Het is van belang dat je transparant blijft als je gebruikmaakt van AI, zeker met generatieve AI.’
Merk je dat er veel mythes en angsten zijn rondom AI?
‘Er zijn veel mythes rond AI, zoals dat er god-achtige aspecten worden toegeschreven aan AI, zoals in de film The Matrix. Of zoals in The Terminator, waar AI de mens zou uitroeien. Of dat AI de mens kan verleiden, zoals dat Siri en Alexa met ons kunnen ‘praten’ en ons gevoel over deze technologie kan veranderen, denk maar aan de film Her. Dat is echt het schoolvoorbeeld van dat narratief. Ik ga hopelijk volgend jaar ook onderzoek doen naar dit soort narratieven, om te kijken hoe die aanwezig zijn in de Nederlandse journalistiek. Ik denk dat het benoemen van deze verhalen in eerste instantie heel belangrijk is, omdat deze verhalen al zo ver terug gaan. Denk aan de Griekse filosoof Homerus bijvoorbeeld. En de renaissance kunstenaar Michelangelo had ook ideeën over AI, voordat dat AI bestond natuurlijk.’
“Dat is zo’n misconceptie die we heel actief zien, dat bepaalde menselijke aspecten worden toegewezen aan een wiskundig model.”
Wat zijn volgens jou de valkuilen of misconcepties van ChatGPT en andere AI?
‘We zien zelf dat technologie heel vermenselijkt wordt, we zeggen dat we ChatGPT iets gaan vragen, en ChatGPT schrijft een artikel voor mij, en daarmee geef je het een bepaald bewustzijn. Hij kijkt eigenlijk alleen naar…’
Maar nu noem je ChatGPT zelf ‘hij’!
‘Zeg ik dat nu? Ah, dat is zo’n vermenselijking die ik heel graag wil vermijden, fijn dat je het even aanduidt. Maar wat je ziet is dat men de schuld richting het systeem schuift als het fout gaat. Of je koppelt dat aan menselijke aspecten, menselijk bewustzijn, terwijl die systemen geen bewustzijn hebben. Generatieve AI zijn wiskundige modellen die op basis van input en berekeningen een antwoord genereren. Dat is zo’n misconceptie die we heel actief zien, dat bepaalde menselijke aspecten worden toegewezen aan een wiskundig model. En dat is heel problematisch is, de verantwoordelijkheid vanuit ethisch principe is altijd anders wanneer een machine een fout maakt, dan wanneer een mens een fout maakt. We labelen dit soort systemen als assistent, maar soms ook als ‘menselijk journalist’.’
‘Het is best een belangrijk vraagstuk. Als journalisten werken wij volgens de journalistieke beginselen, die je ook in het generatieve systeem kan instellen, maar er zitten achter AI soms zo veel berekeningen die niet transparant zijn dat je nooit kan weten wanneer zo’n systeem honderd procent volgens die journalistieke beginselen werkt. Een generatief systeem kan niet leren wat journalistieke ethiek is.’
Je zou nooit een artikel kunnen laten schrijven door AI?
‘Niet zoals een mens dat doet. Mensen schrijven aan de hand van bepaalde processen, bepaalde inzichten, en non-verbale communicatie die we met de bron hebben. Je kan zaken ook door een AI laten detecteren, maar dat moet op basis van zo veel input. Het is maar de vraag of dat nuttig is. Als een journalist ergens op locatie is en die vanuit hun eigen observaties een sfeer beschrijft, is dat uniek. Dat kan amper nagemaakt worden.’