
Risiko’s en beperkings van ChatGPT en Bing Chat
Met kletsbotte soos OpenAI se ChatGPT, Microsoft se Bing Chat en Google se Bard wat die wêreld aan die gons het, skryf dr Tanya de Villiers-Botha (Sentrum vir Toegepaste Etiek) in ʼn meningsartikel vir News24 dat ons onsself moet vergewis van die etiese risiko's verbonde aan hierdie tipe tegnologie.
- Lees die gedeeltelik vertaalde weergawe van die artikel hier onder.
Tanya de Villiers-Botha*
Net meer as twee jaar gelede is die medeleier van Google se etiese Kunsmatige Intelligensie- (KI-) span, dr Timnit Gebru, uit die maatskappy geboender na aanleiding van 'n eweknie-beoordeelde navorsingartikel wat sy en haar span geskryf het oor van die etiese risiko's wat met Groottaalmodelle, die KI-model wat die grondslag uitmaak vir kletsbotte soos OpenAI se ChatGPT, Microsoft se Bing Chat en Google se Bard. Die artikel wys op moontlike gevare wat uit hierdie tegnologie mag voortspruit en doen aanbevelings oor hoe dit oorkom kan word.
Volgens berigte het sommiges binne Google glo die artikel “te droewig" gevind en het teruggekap dat die tegnologie só ontwerp is om ten minste sommige van die probleme wat uitgewys is, te vermy. Twee-en-'n-bietjie jaar en 'n groot ophef oor die bekendstelling van twee kletsbotte wat op hierdie tegnologie gegrond is, later en dit wil lyk of Gebru en haar span in 'n groot mate in die gelyk gestel is.
Die navorsers wys in hulle artikel daarop dat daar unieke risiko's verbonde is aan die gebruik van diep leer om algemene modelle te skep wat natuurlike taal kan verwerk en taalgebaseerde take kan uitvoer. Hiervan staan veral drie uit in die konteks van die onlangse ChatGPT- en Bing-verwante nuus. (Microsoft se beperktevrystelling Bing Chat gebruik blykbaar 'n nuwegenerasie weergawe van ChatGPT.) Die drie is partydigheid, gebrek aan werklike begrip en die moontlikheid om te mislei. Om te verstaan hoe hierdie risiko's ontstaan, moet ons kyk hoe hierdie stelsels “opgelei" word.
Groottaalmodelle word met behulp van massiewe hoeveelhede data opgelei wat met menslike taalgebruik verband hou sodat hulle hierdie taalgebruik behoorlik en oortuigend in reaksie op aansporings kan gebruik. Hierdie tegnologie is op baie maniere suksesvol. ChatGPT se taalvermoë is verstommend. Die tegnologie kan nuttig wees in spesifieke kontekste wat natuurlike taalgebruiksvermoë vereis, soos transkripsie, vertaling en die beantwoording van gereelde vrae. Desondanks kom die tegnologie nie sonder aansienlike risiko's en beperkings nie – soos so duidelik bewys is deur Bing se onlangse gekke uitsette en deur die entoesiastiese pogings om ChatGPT sover te kry om sy eie etiese reël te omseil (“jailbreaking").
Ten slotte …
Die huidige oes van groottaalmodelgebaseerde kletsbotte is op sekere maniere uiters indrukwekkend, maar werklik aaklig op ander. Oor die algemeen voel dit asof hulle tegniese wonders op soek na nuttige toepassings is, en hulle beperkte inwerkingstelling voel na grootskaalse produktoetsing op die rug van die bedryf wat te veel vertroue in hulle vermoë het.
Wat wel duidelik is, veral wat betref websoektogte of ander toepassings wat groot akkuraatheid en min partydigheid vereis, is dat hulle nie gereed is vir vrystelling nie en dit is steeds 'n ope vraag of hulle ooit sal wees. Ons sal maar moet sien of Microsoft gaan skade ly weens die voortydige afsetting van die “KI-wapenwedloop" deur groottaalmodelgebaseerde websoektogte bekend te stel.
Intussen gaan die samelewing met nóg etiese risiko's gekonfronteer word wat uit hierdie tegnologie ontstaan. Ons sal ook moet sien of die voordele wat groottaalmodelle inhou, swaarder weeg as die risiko's daarvan. Dit kan beslis herhaal word dat die beperkings of risiko's wat hier genoem word, onbekend of onvoorkombaar was. Dit onderstreep die behoefte aan groter etiese bewustheid regdeur die tegno-bedryf net nog meer.
- Klik hier om die res van die artikel soos geplaas te lees.
*Dr Tanya de Villiers-Botha is 'n senior dosent in die Departement Filosofie en hoof van die Eenheid vir Etiek in Tegnologie in die Sentrum vir Toegepaste Etiek aan die Universiteit Stellenbosch.