ChatGPT en de bijbel
G. Slurink | Geen reacties | 22-02-2023| 16:08
Vraag
In welk daglicht moeten wij ChatGPT van Open AI zetten in relatie tot de Bijbel? Zou het een rol kunnen spelen voor bijbelvertalers of tekstuitleggers?
De zorgverzekeringen van Care4Life
Waarom overstappen naar de Care4Life zorgverzekering? Lees hier over onze principiële uitsluitingen.
U bent al verzekerd vanaf € 149,10 per maand.
Antwoord
Beste vraagsteller,
Dat is een goede vraag. Ik werk zelf als software ontwikkelaar en wij gebruiken kunstmatige intelligentie ook in steeds meer toepassingen. Wat mij vaak opvalt is dat het nogal eens erg wordt overschat. Er zijn toepassingen die binnen hun grenzen vrij goed bruikbaar zijn. Maar kunstmatige intelligentie kan er ook helemaal naast zitten. Het kan complete onzin verkondigen en dingen aan elkaar verbinden die geen onderling verband hebben of juist missen waar het om gaat. Ik zal proberen een beetje uit te leggen hoe dat komt.
Wat is kunstmatige intelligentie en hoe werkt het? Allereerst moet ik zeggen dat ik van mening ben dat kunstmatige intelligentie een misleidende benaming is. De bedenker van de term had er in 1956 iets anders bij in gedachten dan hoe de meeste mensen het nu opvatten. Voor de meeste mensen heeft intelligentie te maken met begrip en inzicht. Maar bij kunstmatige intelligentie is er geen sprake van inhoudelijk begrip en inzicht. Het gaat alleen over het (leren) herkennen van patronen en deze te gebruiken om keuzes te maken. Het gebruikt daarvoor allerhande wiskundige berekeningen, scores (gewichten genoemd) en algoritmen (stukjes logica).
Het bestaat grofweg uit drie onderdelen. Als eerste wordt er een hele hoop informatie verwerkt. In het geval van ChatGPT betreft dat vooral teksten van internet. Deze teksten worden opgedeeld in een heleboel stukjes data, wat naar ik vermoed in het geval van ChatGPT vooral woorden zullen zijn, maar ook titels, begrippen, tekstgedeelten en dergelijke. Tussen deze stukjes data worden verbanden gelegd met bijbehorende scores die tijdens de verwerking van de informatie worden opgebouwd. Zo bouwt het statistische kennis op van taal- en tekstpatronen, zonder te begrijpen wat de woorden of de zinnen betekenen of waar ze voor staan.
Vervolgens is er een taalmodel dat een tekst kan genereren. De tekst wordt woord voor woord opgebouwd, waarbij elk volgend woord wordt gekozen op basis van de beste score in de context van de voorafgaande woorden en de context van het geheel die is afgeleid uit de vraagstelling. Dit alles is een nogal complex proces, waarin allerlei blokjes logica elkaar aansturen en signalen afgeven. Dit wordt een neuraal netwerk genoemd. Het resultaat van dit alles is dat het op basis van de uitkomst hiervan het meest geschikte volgende woord kiest. En dat gaat zo verder totdat het systeem besluit dat het klaar is met de tekst. Merk op dat de inhoud en betekenis van de woorden hierbij geen enkele rol speelt. Het enige wat telt is welke tekstpatronen er worden herkent en welk woord rekenkundig het beste past op een bepaalde plek.
De derde is de training. Bij ChatGPT is deze uitgevoerd door mensen. In wezen komt dat er op neer dat men ChatGPT vragen stelt en het antwoorden laat genereren en dan aangeeft of deze goed of verkeerd zijn. En op basis daarvan zal het systeem ‘leren’ en de onderlinge verbanden en scores aanpassen. Dit is een uitgekiend proces en een goed gekozen training zal veel uitmaken voor het uiteindelijke resultaat. Maar ook hier weer geldt dat het van de kant van de kunstmatige intelligentie gaat om verbanden en scores en niet om de inhoud van de woorden of van de tekst als geheel.
Misschien dat het je wat duizelt bij het lezen van dit, maar ik hoop dat het in ieder geval duidelijk wordt dat de inhoud en betekenis van de woorden en van de tekst geen rol speelt bij ChatGPT en dergelijke systemen. Het kan niet denken, het kan niet begrijpen, het kan niet redeneren, het kan problemen niet doorgronden. Het kan in feite alleen maar rekenen en logica volgen. Dat dit toch in veel gevallen resulteert in een vrij goede tekst komt omdat talen en taalgebruik grotendeels logische structuren hebben waardoor patroonherkenning en het gebruik daarvan mogelijk is.
Het is belangrijk hier op te merken dat het produceren van teksten hier compleet anders gaat dan bij mensen. Bij mensen gaat het om inhoud en betekenis van de woorden. Bij ChatGPT gaat het om statistische patronen van woordgebruik. Je zou hetzelfde systeem kunnen gebruik om een verhaal van onzinwoorden te produceren als je het eerst traint met een grote hoeveelheid aan onzinteksten. Het zal dan netjes de patronen van de onzinteksten volgen. Inhoudelijke betekenis speelt geen enkele rol. Daarom kan het met elke taal werken zonder aanpassingen te hoeven maken. Of het kan ook makkelijk een tekst schrijven in een stijl die zich kenmerkt door een bepaald taalgebruik. Het draait om de patroonherkenning.
Belangrijk bij patroonherkenning is verbanden te leggen. Ik wil met twee voorbeelden illustreren hoe dit fout kan gaan. Het eerste voorbeeld is iets dat ons verteld werd op een cursus over deze materie. Een groep software ontwikkelaars werkte aan een toepassing om wolven van husky's te onderscheiden op beelden. Dit werkte redelijk, maar er waren telkens weer gevallen dat het meende een wolf te herkennen wanneer het duidelijk een husky was. Men kwam er niet uit hoe dat kon. Na nauwkeurig onderzoek bleek het probleem te liggen in een onverwachte hoek: sneeuw. Het beeldmateriaal waar het systeem mee getraind was bestond voor een aanzienlijk deel uit wolven in de sneeuw. En de husky's die als wolf werden herkend waren ook in de sneeuw. Het systeem gebruikte dus in deze gevallen de sneeuw op het beeld als de doorslaggevende factor om tot de conclusie te komen dat het een wolf moest zijn. Dit illustreert hoe kunstmatige intelligentie verkeerde verbanden kan leggen en als gevolg daarvan tot verkeerde conclusies kan komen.
Het tweede voorbeeld gaat over hoe het een belangrijk verband kan missen. Ik heb dit ook zelf getest met ChatGPT. Ik stelde ChatGPT de vraag: “De vader van Klaas heeft vier kinderen. Drie kinderen heten Hans, Peter en Jan. Hoe heet het vierde kind?” en ik kreeg als antwoord: “Het vierde kind van de vader van Klaas is niet genoemd, dus er is geen manier om te bepalen hoe het heet.” Wat hier gebeurt is dat het de naam Klaas als een kenmerk van de vader opvat en dus verbindt met de vader. Maar het legt geen verbinding met Hans, Peter en Jan. Het herkent daarom Klaas niet als een kind en daarom telt het maar drie kinderen.
Deze voorbeelden tonen aan dat het geen enkel inhoudelijk benul heeft van iets. En als het de verkeerde verbindingen legt kan het de grootste onzin verkondigen of het punt missen waar het om gaat. ChatGPT ziet er indrukwekkend uit omdat het snel informatie kan verzamelen en combineren en oppervlakkig gezien vrij goede teksten produceert. Maar dat is bedrieglijk, want het wekt de indruk dat het weet waar het het over heeft, maar dat weet het niet.
Belangrijk is dan ook om je te realiseren bij dit soort van systemen dat wat het zegt niet waar hoeft te zijn, zelfs als de bronnen die het gebruikt betrouwbaar zouden zijn. Het kan een goed lopend verhaal genereren dat de plank misslaat. Bedenk dat het systeem zelf de tekst genereert. Het betreft dus geen aanhalen of combineren van citaten van mensen of een samenvatting ervan of zoiets. Het is een tekst geproduceerd door een systeem dat geen idee heeft wat het zegt maar dat statistische patronen volgt. Het valt ook niet te achterhalen hoe het er bij komt. Er is geen enkele vorm van bronvermelding mogelijk. Bij een zoekmachine zoals Google vind je teksten die door mensen geschreven zijn en dan weet je wie het geschreven heeft en kan je achterhalen wat de achtergrond van die schrijver is en dergelijke. Maar bij ChatGPT is de tekst helemaal geschreven door ChatGPT zelf. En het komt voor dat het maar wat uit de duim zuigt, dat is inherent aan hoe het systeem werkt en niet te voorkomen.
Nog een belangrijk punt is dat het resultaat voor een groot deel bepaald wordt door wat er is ingestopt en waarmee het systeem is getraind. Een bekend probleem bij kunstmatige intelligentie is dat het bevooroordeeld is en dat komt omdat de trainingsgegevens die er worden gebruikt eigenlijk altijd een statistische bias hebben. In het bovengenoemde voorbeeld van de wolven was dat de sneeuw. Hier wordt al heel lang aan gewerkt maar het is haast ondoenlijk dit te overkomen in een systeem dat uiteindelijk werkt op een basis van statistiek. De enige manier om dit te overkomen is te werken op een basis van redelijkheid, maar dat kan zo’n systeem niet, alleen een mens kan dat.
Deze bias is ook te merken bij ChatGPT. Als je een beetje experimenteert met ChatGPT over filosofische of religieus getinte onderwerpen zul je al snel merken dat het een agnostische en soms zelfs atheïstische bias heeft. En dat is niet omdat het systeem zo gemaakt is, maar omdat de dataverzameling waar het mee werkt deze bias heeft. Het kan uiteraard ook geen moreel oordeel vellen over iets, of een oordeel van waarde. Maar dat wil niet zeggen dat ChatGPT waardenvrij is. Als je er een beetje mee experimenteert, door bijvoorbeeld te vragen: “is het verkeerd om te...” merk je al snel dat het een 21e eeuws waardensysteem heeft, wat het gevolg is van zowel de van de verzameling tekst waarmee het getraind is, als de training zelf.
Nu het naar ik hoop een beetje duidelijker is geworden hoe het werkt kunnen we kijken naar de vraag of dit bruikbaar is voor bijbelvertaling of tekstuitleg of andere dergelijke zaken.
Het mag duidelijk zijn dat ChatGPT inhoudelijk geen begrip heeft van woorden of teksten. En er is ook geen garantie dat het klopt wat het zegt. Bij eenvoudige zaken zal dat over het algemeen geen probleem zijn. Deze zijn vaak wel te vinden op basis van herkenning van tekstpatronen. Als je het vraagt naar de geboortedatum van Napoleon dan zal het gegeven antwoord waarschijnlijk wel kloppen. Maar als het gaat om een meer subtiele of complexe zaak dan kan je er niet zo maar van uitgaan dat het klopt wat het zegt.
Voor Bijbelvertaling of tekstuitleg is juist begrip en inzicht nodig en fijngevoeligheid voor de nuances van de taal alsmede grote kennis op dat gebied. ChatGPT kan een Bijbeltekst niet begrijpen en dat is nodig voor een goede uitleg. En je kan er niet op vertrouwen dat wat het zegt ook daadwerkelijk klopt. En daarbij moet je afvragen of wat het zegt nu wel de essentie van de zaak heeft gevat.
Waarin ChatGPT wel een hulp kan zijn is bij het uitvoeren van relatief eenvoudigere taken, zoals het verzamelen van basisinformatie. Bijvoorbeeld bij een opdracht als “Geef alle bijbelteksten waarin het Griekse woord epiginóskó (kennen) voorkomt”, geeft het als resultaat netjes een lijstje van alle gewenste bijbelteksten. En zo kun je het allerlei zoekopdrachten geven. Het kan hier echter ook tegen grenzen aanlopen. Bijvoorbeeld bij de opdracht: “Noem alle preken van Spurgeon waarin hij over het onderwerp schepping spreekt” krijg je als antwoord: “Sorry, dat kan ik niet doen, want Charles Spurgeon heeft honderden preken gehouden en het is niet mogelijk om ze allemaal uit mijn geheugen op te noemen.” Maar bij een vraag zoals “Noem drie preken van Spurgeon waarin hij over het begrip genade spreekt” komt het eenvoudig tot een goed antwoord . Dat is ook een relatief eenvoudig iets voor zo’n systeem omdat er in een context van Spurgeon, preken en genade maar een beperkt aantal data elementen hoog zullen scoren.
Ook bij het vertalen kan het in beperkte mate van hulp zijn. Het kan best handig te zijn om te communiceren met iemand die alleen een taal spreekt die je niet kent. Of om een beetje een idee te krijgen van wat er staat in een tekst in een taal die je niet beheerst. Net zoals Google Translate daarbij helpen kan of andere vertaalsoftware. En het kan misschien wat suggesties bieden voor het vertalen van bepaalde woorden of zinnen. Het is dan aan de vertaler om te bepalen of daar wat bruikbaars bij zit of niet. Maar voor een goede bijbelvertaling is grote kennis van zowel de brontaal als de doeltaal als nodig en een fijngevoeligheid voor de nuances van verschillende woorden alsmede natuurlijk een goed inhoudelijk begrip van de bijbeltekst zelf. ChatGPT is hierbij overvraagd. Dat gaat veel verder dan patroonherkenning.
En ik zou daar nog aan willen toevoegen dat, zoals Paulus schrijft in 1 Korinthe 2, de dingen van God alleen geestelijk beoordeeld kunnen worden, dat wil zeggen dat iemand het licht van de Heilige Geest moet hebben om ze te kunnen doorzien. De natuurlijke mens neemt deze dingen niet aan, want ze zijn dwaasheid voor hem. Dat geeft natuurlijk ook te denken of je patroonherkenning wel kan gebruiken wanneer inhoudelijk begrip belangrijk is.
Samenvattend zou ik willen concluderen dat ChatGPT van nut zou kan zijn voor bepaalde deeltaken, zoals voor het verzamelen van informatie en het aanbieden van eventuele alternatieven voor het vertalen van bepaalde woorden of zinnen. Maar hoe goed het resultaat zal zijn zal afhangen van wat er gevraagd wordt. En voorzichtigheid is altijd geboden. Degene die ChatGPT gebruikt moet kritisch omgaan met het resultaat: Klopt het? Is het relevant? Is het wat ik nodig heb? Wat ontbreekt er? Enzovoort.
En bij alles waar begrip, inzicht en denkvermogen voor nodig is, daarin kan ChatGPT of kunstmatige intelligentie weinig voor ons betekenen. En laten we daar alsjeblieft ook niet lui in worden door dat over te laten aan een systeem dat dat niet kan en ook nooit zal kunnen.
Een hartelijke groet,
Gerard Slurink
Dit artikel is beantwoord door
G. Slurink
- Geboortedatum:12-02-1963
- Kerkelijke gezindte:Reformatorisch
- Woon/standplaats:Lahti, Finland
- Status:Actief
Bijzonderheden:
*Voormalig popmuzikant