De relevantie en werking van een AI-gedreven chatbot, gericht op de jonge katholieke generatie

Onlangs werd bekend dat Hoogleraar Martijn de Jong van de Erasmus School of Economics een subsidie ontvangt van stichting Porticus voor het ontwikkelen van een AI-gedreven, domein-specifieke chatbot voor de jonge generatie. De chatbot heeft als doel om religieuze vorming toegankelijk, gepersonaliseerd, en boeiend te maken voor jongeren die nadenken over geloven, religie en katholicisme. Hiermee beantwoord De Jong de oproep van de paus waarin hij opriep tot de religieuze ontwikkeling van jongeren. Wij spraken De Jong over de werking en ontwikkeling van deze chatbot.

Waarom is deze chatbot relevant voor de jongere generatie?

De chatbot wordt ontwikkeld voor jongeren omdat er een verschuiving te zien is in wat jongeren willen. Het naar de kerk gaan spreekt minder aan, en ze zitten vooral veel op hun telefoon. De traditionele “old school” vormen van catechese zijn dan minder geschikt en een chatbot sluit meer aan bij de belevingswereld van jongeren.

De chatbot is ook beter toegankelijk voor jongeren, aangezien deze 24/7 beschikbaar is. Bovendien is er een interactieve dialoog mogelijk, en de drempel om vragen te stellen is zeer laag. Immers, naar een priester stappen wordt door velen als een grote stap ervaren. Wanneer er wordt gesproken over jongeren wordt een doelgroep van 18 tot 25-jarigen bedoeld. Niet alleen jongeren hebben iets aan de chatbot. Ouders van jongeren en mensen die catechese geven, kunnen er ook gebruik van maken om in eenvoudige taal de soms moeilijke concepten uit het geloof uit te leggen aan jongeren.

Onder de katholieke jongeren is sowieso een verandering te zien ten opzichte van de oudere generatie. Ze zijn meer missionair ingesteld en hebben een grotere focus op Christus. Hier sluit deze chatbot bij aan. De chatbot is bedoeld voor algemene vragen over geloven, religie en katholicisme, en is dus vooral gericht op apologetiek. Dit houdt in dat het focust op het uitleggen van het geloof en hoe het geloof verdedigd kan worden als mensen er kritische vragen over stellen.

Voor wat betreft de relevantie van deze chatbot tegenover de reeds bestande chatbots, kunnen we zeggen dat generieke chatbots zoals ChatGPT wel in staat zijn om vragen te beantwoorden over geloof, maar het is niet duidelijk hoeveel goede bronnen zo’n generieke chatbot gebruikt. Deze chatbot is specifiek gemaakt op basis van katholieke bronnen, hiermee kan dus de kwaliteit van de antwoorden worden gewaarborgd.

 

Op basis waarvan worden de vragen in het AI-model ontwikkeld?

De chatbot zal ontwikkeld worden aan de hand van vragen die nu spelen onder jongeren. Deze vragen zullen verzameld worden op katholieke scholen, en onder katholieke studenten. Het gaat dus om jongeren die in ieder geval bekend zijn met het katholicisme. Vervolgens zal er gekeken worden naar verschillende vragen die spelen in verschillende werelddelen. Dit is in overeenstemming met een verschuiving die te zien is in de katholieke kerk wereldwijd. Het is niet langer zo dat in Rome wordt bepaald hoe het moet en dat alle werelddelen dat moeten volgen. De paus roept op tot decentralisatie en dat is dus ook hoe deze chatbot ingericht zal worden.

Dan is er nog de vraag van de nuance in de antwoorden. Gaat de chatbot bijvoorbeeld conservatief/orthodox of progressief ingesteld worden? Het antwoord hierop is dat er een nuance wordt gezocht. Er wordt er een pastorale benadering gebruikt waarin genuanceerde antwoorden worden geformuleerd door een team van priesters die veel met jongeren werken. Ze zullen wel de formele leer  als uitgangspunt nemen, maar voldoende context en nuance meenemen zodat het taalgebruik en de insteek aansluiten bij de belevingswereld van jongeren. Bovendien kunnen eventuele verschuivingen in hoe men in de kerk tegen bepaalde zaken aankijkt makkelijk worden meegenomen door daarna de teksten iets aan te passen.

 

Hoe zal de chatbot op een veilige manier omgaan met de gesprekken met de jongeren?

Het is natuurlijk niet wenselijk dat de chatbot onjuiste antwoorden geeft of met de jongeren over onderwerpen praat die te gevoelig zijn om met een chatbot te bespreken. Het is daarom de bedoeling dat wanneer er vragen worden gesteld die niet met het geloof te maken hebben of als het onderwerp niet voorkomt in de database waarop de chatbot is gebaseerd, het model aangeeft geen antwoord te hebben in plaats van zelf iets te gaan verzinnen. De bestaande database met vragen en antwoorden is ontwikkeld in samenwerking met priester Michel Remery (auteur van het boek ‘Twitteren met God’), en zal worden aangevuld met nieuwe vragen die leven op katholieke scholen en onder studenten.

Ook wanneer het gaat om onderwerpen waarbij professionele hulp nodig is, is het de bedoeling dat de chatbot suggesties geeft aan de jongeren waar ze beter terecht kunnen met hun vragen.

 

Hoe zit het AI-model in elkaar?

De AI chatbot zal een interdisciplinair project zijn waar theologen, informatici, statistici en data analisten moeten samenwerken. De chatbot moet relevante antwoorden geven waar jongeren wat mee kunnen, en gebruiksvriendelijk zijn. Dit vereist dus expertise op meerdere terreinen.

Nog iets anders om goed over na te denken is de juridische kant van een dergelijk project. Het is vaak te merken dat er weerstand ontstaat bij juristen die een oordeel moeten vellen over of een AI-model mag worden gelanceerd. Wie is bijvoorbeeld aansprakelijk voor output die schade oplevert? In de taalmodellen waarop wordt voortgebouwd, zitten gelukkig vaak al veel safeguards die schadelijke antwoorden voorkomen. Bovendien is het zo dat de database die we gebruiken om het taalmodel te verrijken, afkomstig is van gerenommeerde katholieke bronnen die geverifieerd zijn en geen schadelijke content bevatten.

Dan kan er nog naar de kostenstructuur en privacy van de chatbot gekeken worden. Bij veel commerciële taalmodellen moet worden betaald als er vragen worden gesteld en er informatie uit de database wordt opgeroepen. Dat is niet aantrekkelijk als veel mensen gebruik maken van de chatbot. Het is dus een idee om voor de chatbot een open-source taalmodel te gebruiken zoals Llama 2, welke ontwikkeld is door Meta. Een ander punt betreft de privacy, zeker als gevoelige vragen worden gestuurd naar een bedrijf als OpenAI (het bedrijf dat ChatGPT heeft ontwikkeld) of andere partijen. Het is dus nuttig om te experimenteren met verschillende taalmodellen en te bestuderen hoe de kosten en privacy afhangen van de keuzes die gemaakt worden.

Naar overzicht