Wat zou een grotere prioriteit moeten krijgen om Large Language Models (LLM’s) zoals ChatGPT veilig en betrouwbaar verder te ontwikkelen?

Research output: Online publication or Non-textual formWeb publication/siteScientificpeer-review

6 Downloads (Pure)

Abstract

De volledige vraag is: Wat zou een grotere prioriteit moeten krijgen om Large Language Models (LLM’s) zoals ChatGPT veilig en betrouwbaar verder te ontwikkelen: Meer onderzoek naar het ontstaan en de betekenis van hallucinaties en confabulaties door LLM’s? Of meer onderzoek naar methoden en nieuwe technologie om het ontstaan van confabulaties en hallucinaties in LLM’s volledig tegen te gaan? Deze vraag is gebaseerd op vijf onzekere aannames: 1. Dat hallucinaties schadelijk zijn. Dit is context-afhankelijk. 2. Dat hallucinaties door grote taalmodellen volledig te vermijden zijn. Dat is een onhaalbaar ideaal. 3. Dat de twee oplossingen (beter begrijpen hoe hallucinaties ontstaan en het ontwikkelen van technologie om dit tegen te gaan) onafhankelijk van elkaar zijn. Maar zonder begrip van het probleem los je niets op. 4. Dat er een objectieve keuze te maken valt tussen de twee genoemde oplossingen. 5. Dat grote taalmodellen een onvermijdelijke technologische ontwikkeling zijn. Verschillende onderzoekers stellen dat deze taalmodellen onethisch, fundamenteel beperkt, of allebei zijn.
Original languageDutch
PublisherUtrecht University
Media of outputOnline
Publication statusPublished - 11 Feb 2025

Cite this