ChatGPT in de wetenschap: 5 aandachtspunten

Dat dit type Artificiële Intelligentie grote gevolgen heeft voor de wetenschap, hebben onderzoekers van de Nederlandse Universiteit van Amsterdam, Amsterdam UMC en de Amerikaanse Indiana University vastgesteld.

Trefwoorden: #artificiële intelligentie, #chat

Lees verder

research

( Foto: Yakobchuk - 123RF )

ENGINEERINGNET.BE - ChatGPT is bruikbaar om papers te schrijven, onderzoekshiaten aan te wijzen, programma's te schrijven, bestaande teksten te herzien en zoekopdrachten uit te voeren. Hoe moeten wetenschappers omgaan met deze nieuwe technologie?

Deze vraag poogt Claudi Bockting, hoogleraar Klinische psychologie in de Psychiatrie aan de UvA, met een interdisciplinair onderzoeksteam te beantwoorden in een Nature-publicatie. ‘We kwamen al snel tot de conclusie dat het geen optie is om de technologie proberen te verbieden. Op korte termijn zal GPT overal gebruikt worden en mogelijk zelfs geïntegreerd zijn in tekstverwerkingsprogramma’s’, aldus Bockting.

De onderzoekers verwachten echter dat het gebruik van ChatGPT op diverse manieren een bedreiging kan zijn voor de wetenschap, met name door de onnauwkeurigheid van de chatbot.

Zij legden ChatGPT tal van vragen en taken voor, waar bepaald niet altijd het gewenste resultaat uit voortkwam. Mede-onderzoeker Evi-Anne van Dis van Amsterdam UMC: ’ChatGPT antwoordde soms met onjuiste of misleidende teksten, bijvoorbeeld op de vraag hoeveel patiënten met een depressie na behandeling terugvallen.'

'ChatGPT antwoordde dat behandeling over het algemeen langdurig is, wat min of meer betekent dat terugval weinig voorkomt. Uit wetenschappelijk onderzoek weten we echter dat terugval kan oplopen tot 51% in het eerste jaar na de behandeling.’

De onderzoekers formuleerden daarom vijf aandachtspunten voor de wetenschap bij het gebruik van ChatGTP en andere Large Language Models (LLM’s):

  • Houd vast aan menselijke checks op de output van LLM’s.
  • Stel binnen de wetenschappelijke gemeenschap met elkaar accountability-regels op, gericht op transparantie, integriteit en eerlijkheid.
  • Investeer in betrouwbare en transparante LLM's, in handen van onafhankelijke non-profitorganisaties.
  • Omarm de voordelen van AI. Als LLM’s betrouwbaarder en transparanter worden, kunnen ze ook veel mogelijkheden bieden voor de wetenschap.
  • Trek het debat breder. De auteurs raden onderzoeksgroepen aan om ChatGPT intern te bespreken. Ook moet de wetenschappelijke gemeenschap ChatGPT bespreken met stakeholders, van uitgevers tot ethici, het liefst in de vorm van een internationale top. De auteurs benoemen in hun Nature-artikel tien vragen die als leidraad kunnen dienen.

‘We roepen op tot een wereldwijd debat over de vraag hoe AI-technologie een positieve game-changer voor de wetenschap kan worden. Uiteindelijk moet dit leiden tot de ontwikkeling van concrete en praktische richtlijnen voor onderzoekers’, aldus Bockting.