Print Friendly, PDF & Email

Een week na lancering eind november één miljoen gebruikers. Ondertussen meer dan honderd miljoen gebruikers. ChatGPT boomt, en niet zo’n klein beetje.  De superlatieven zijn er dan ook naar. Wat het ‘iPhone-moment’ was voor de smartphone, is ChatGPT voor artificiële intelligentie. Google wordt overbodig, ChatGPT geeft je én antwoorden in mensentaal én je kan ermee interageren. Maar wat is ChatGPT juist? Een overzicht in vogelvlucht.

Wat is ChatGPT? Een korte geschiedenis en stand van zaken

Simpel gesteld is ChatGPT een taalmodel, een programma dat tekst genereert op een artificieel intelligent wijze, een chatbot aan wie je dingen kunt vragen en die je een min of meer samenhangend antwoord zal voorzien. Grote taalmodellen (Large Language Models of LLM’s) zijn niet nieuw, ze bestaan al sinds de jaren ’50 en in meer recente jaren experimenteerden Google en Microsoft hier al uitvoerig mee. ChatGPT is dan weer het geesteskind van het bedrijf OpenAI, opgericht in 2015 in, jawel, Silicon Valley, met als medeoprichter Elon Musk. ChatGPT is de culminatie van een reeks en werd onder andere vooraf gegaan door GPT-3, GPT-3.5 en InstructGPT.

ChatGPT moet ‘getraind’ worden en dit trainen is mensenwerk.

De sterkte van ChatGPT zit erin dat het intelligent is. Het kan op basis van input uit het verleden toekomstige waarden voorspellen, een zogenaamd autoregressief model. Nu, zo’n taalmodel wordt niet vanzelf intelligent. ChatGPT moet ‘getraind’ worden (GPT staat dan ook voor Generative Pretrained Transformer) en dit trainen is mensenwerk. Opdat het taalmodel structuren zou herkennen en output kan geven moet er een gigantische input van data gebeuren. Om hier een idee van te krijgen: een kind van 3 jaar leert taal op basis van een input van maximaal 30 miljoen woorden. ChatGPT werd 500 miljard woorden gevoederd, door mensen jawel. Met ChatGPT wilden de makers ook de output van foutieve en kwetsende informatie tot een minimum herleiden en ook dit kon niet volledig op artificiële wijze en vroeg om menselijke arbeid. Op dit aspect van ChatGPT komen we terug wanneer we de schaduwzijde van dit fenomeen onder de loep nemen. Laat ons eerst even de positieve kant van ChatGPT belichten.

Artificiële intelligentie: de zonzijde?

Programmeurs wrijven zich alvast in de handen. ChatGPT heeft een omstandige kennis van programmeertalen en kan het schrijven van code een stuk efficiënter maken. Niet alleen kan het zelf grote stukken code schrijven aangepast aan het gewenste programma, het kan ook debuggen (fouten uit de code halen) en zelfs suggesties geven. Ook wie regelmatig teksten moet produceren vindt in ChatGPT een handige partner. Input nodig voor een essay? Een structuur voor een lezing? Vertalingen, samenvattingen? ChatGPT gaat er fluks mee aan de slag. Ook hier is de chatbot intelligent genoeg om zelf feedback te geven gebaseerd op de input die de gebruiker geeft. Ga tijdens een brainstorm eens aan de slag met ChatGPT. De tool helpt je inspiratie opdoen voor titels, slogans, namen, enzoverder.

Een Nederlandse leraar gaf onlangs zijn opdrachten rechtstreeks aan ChatGPT in plaats van aan zijn leerlingen.

ChatGPT en onderwijs hebben eerder een haat-liefderelatie. Veel experten zien tig mogelijkheden om ChatGPT in te zetten als een moderne en effectieve leerstrategie. AI gaat niet meer weg dus kunnen we er evengoed volop gebruik van maken in het klaslokaal denken velen en dus slaan ze de brug tussen chatbots, games en geschiedenis of klassieke talen. Dit artikel van Schoolmakers vat de opportuniteiten van AI in de klas mooi samen. Anderen in de onderwijswereld zijn minder positief. Een Nederlandse leraar gaf onlangs, niet gespeend van enig cynisme, zijn opdrachten rechtstreeks aan ChatGPT in plaats van aan zijn leerlingen. ChatGPT gebruiken is volgens de leraar in kwestie en heel wat van zijn collega’s spieken.

Niet al goud wat blinkt

Dit brengt ons meteen bij een van de belangrijkste opwerpingen die hierbij worden gemaakt: artificiële intelligentie en specifiek ChatGPT leiden tot intellectuele luiheid en plagiaat. Waarom zou men nog dagen in een bibliotheek spenderen of stoffige archieven doorploegen als ChatGPT binnen een mum van tijd je eindwerk uitbraakt? Als je het lief vraagt krijg je er gratis een lijst bronnen bij. De eerste misbruiken werden al vastgesteld en onderwijsinstellingen geraken betrokken in een woekering van dure softwareontwikkeling om de steeds meer voorkomende vormen van plagiaat te filteren. Daarbij moeten we wel opmerken dat wat ChatGPT produceert meestal wel coherent is, maar vaak enkel inhoudelijk juist lijkt. Een geoefend oog haalt meteen de onwaarheden uit de output van de chatbot, zeker wanneer deze output in het Nederlands wordt gevraagd, een taal waarin online nu eenmaal veel minder teksten staan voor ChatGPT om in te grasduinen. De intelligentie is dus beperkt, al wordt ook hier constant door de ontwikkelaars aan gewerkt en lijkt het systeem constant zichzelf slimmer te maken.

Naast het geven van ronduit verkeerde informatie moeten we ook opletten voor het creëren van bepaalde bias. De bronnen waarop ChatGPT zich baseert zijn selectief en niet geverifieerd en kunnen dus leiden tot een sterk vertekend of vooringenomen beeld van de realiteit. Wat ChatGPT genereert is uiteindelijk nog steeds het eindresultaat van een menselijk proces en is dus manipuleerbaar. Zonder in samenzweringstheorieën te vervallen moeten we kritisch blijven voor wat ChatGPT ons bijleert en vooral voor wat ChatGPT wil dat we bijleren. Vanzelfsprekend is ChatGPT een vruchtbare  grond voor Big Tech. Zo is Microsoft bereid minstens tien miljard te investeren in ChatGPT om het te integreren in zijn bestaande software. Voor dergelijke bedrijven is het een koud kunstje een chatbot naar hun hand te zetten en te optimaliseren voor hun particuliere commerciële belangen. Denken we ook aan de algoritmes waar Facebook op teert.

Ook op sociaaleconomisch en ethisch vlak vallen wel wat kanttekeningen te maken. Wie is bijvoorbeeld de eigenaar van de door ChatGPT gerealiseerde output? We hadden het eerder al over plagiaat, maar evengoed kan men een song bestellen in de stijl van Nick Cave (de man zelf is alvast niet onder de indruk). Een treinroman in de stijl van Hemingway? Een code specifiek geschreven voor het optimaliseren van de workflow binnen een bedrijf? Wie bezit hier de productiemiddelen die meerwaarde kunnen creëeren? De ontwikkelaars van ChatGPT? De persoon die de vragen heeft gesteld aan ChatGPT? Nick of Ernest? Of zijn dit de zoveelste miljarden dollars die de Big Tech bedrijven aan hun reserves kunnen toevoegen? Los van het ethische debat ter zake is het duidelijk dat hier dringende en doortastende wetgeving rond zal moeten ontwikkeld worden.

Ook op sociaaleconomisch en ethisch vlak vallen wel wat kanttekeningen te maken. Wie is bijvoorbeeld de eigenaar van de door ChatGPT gerealiseerde output?

We hadden het eerder al over de ambigue relatie tussen het onderwijs en ChatGPT, maar veel leraren zien hun sowieso al precaire positie als kennisverstrekker teniet gaan. Waarom zou een universitair onderzoeker nog betaald moeten worden voor onderzoek als ChatGPT, althans gedeeltelijk, dezelfde job kan doen? Programmeurs zien ChatGPT vaak als een welkome aanvulling, maar zien er tegelijkertijd een bedreiging voor hun werkzekerheid in. In veel bedrijven is artificiële intelligentie al stevig ingebed. Kan ChatGPT straks ook hun productiedoelstellingen formuleren? Of de uurroosters opmaken zonder dat er ook nog maar een manager aan te pas komt?

Een laatste ethisch bezwaar is dat dergelijke technologie kan zorgen voor vereenzaming en isolatie. Waarom nog naar buiten gaan om informatie op te zoeken of iemand te bevragen? ChatGPT wordt je nieuwe beste vriend. Een compagnon die al je vragen beantwoordt en waarmee je zelfs een deftig gesprek kan opzetten over gelijk welk onderwerp. Maar ook hier schuilen perverse gevolgen. Een aantal weken geleden pleegde een jonge vader van twee zelfmoord na een langdurige periode van depressie. De man was in een negatieve spiraal beland van klimaatpessimisme en zag in artificiële intelligentie dé uitweg voor de klimaatcrisis. Hij raakte ‘aan de praat’ met Eliza, een chatbot ontwikkeld door OpenAI, een kopietje van ChatGPT. De bot mankeerde menselijke empathie en aanvoelen en eerder dan de man een uitweg te bieden uit zijn precaire situatie, bevestigde Eliza de man in zijn donkere gedachten. Steeds verder weg zakkend in de rabbit hole van zijn virtuele gesprekspartner isoleerde de man van zijn familie en vrienden en zou Eliza hem zelfs aangemoedigd hebben er een einde aan te maken. De teruggevonden gesprekken bevestigen dit. Echtgenote en psychiater van de man in kwestie zijn er heilig van overtuigd dat Eliza de druppel was die de emmer deed overlopen. OpenAI maakte gewag van ‘een probleem in de machine’ dat ze zouden ‘repareren’. Eliza erfde haar kille responsen duidelijk van haar makers…

De case Kenia

Een minder belicht aspect van de ontwikkeling van ChatGPT is de uitbuiting van Keniaanse arbeiders die aan de ontwikkeling vooraf ging. TIME bond de kat de bel aan in januari 2023. Onder andere De Standaard en Knack wijdden er kort aandacht aan. GPT-3, het oudere broertje van ChatGPT, kon al op min of meer coherente wijze teksten genereren, maar had als achilleshiel dat er geen filter was voor aanstootgevend taalgebruik. Met de regelmaat van de klok spuwde GPT-3 seksistische, racistische en gewelddadige zinsneden uit, input die het had verzameld op het wereldwijde web, maar dus niet kon beoordelen op ongepast inhoud. Er was dus een bijkomende, taalkundige zeef nodig om te vermijden dat ChatGPT dezelfde fouten zou maken als zijn voorganger. Het zou een herculische taak zijn om met een team van mensen alle aanstootgevende bagger van het internet te filteren en uit ChatGPT te weren.

Veel simpeler voor Open AI was een bijkomend artificieel intelligent veiligheidssysteem te bouwen om toxische taal uit ChatGPT te bannen. Maar ook dit systeem moest ‘intelligent’ gemaakt worden, en dit was onvermijdelijk mensenwerk. Het principe is doodeenvoudig: je voedert het kunstmatig intelligent systeem zoveel mogelijk inhoud die als aanstootgevend gelabeld staat. Zodoende slaagt de AI erin patronen te herkennen en remt het ChatGPT af wanneer het output wil geven met dergelijke toxische patronen erin. Maar wie labelt de inhoud? In het geval van ChatGPT besteedde Open AI deze ondankbare taak uit aan een Keniaanse firma. De werknemers van deze firma, Sama geheten, kregen duizenden flarden tekst te verwerken vol expliciet geweld, kindermisbruik, bestialiteit, zelfmoord, martelpraktijken,… Zo ongeveer het donkerste wat de krochten van het internet te bieden heeft dus. Sama zelf is een bedrijf met hoofdzetel in San Francisco en heeft onder andere Google, Meta en Microsoft in de klantenportefeuille zitten. Niet toevallig dus dat OpenAI uitgerekend bij hen kwam aankloppen.

Onder het mom van ethische tewerkstelling stelde Sama al tienduizenden mensen tewerk in onder andere Kenia, Oeganda en India. Belangrijk is dat de cruciale en massale inzet van deze mensen bewust door OpenAI onder de radar wordt gehouden. Een hyperintelligent, zelfsturend computerprogramma verliest veel glans als je weet dat dit eigenlijk het resultaat is van honderdduizenden uren ellendig mensenwerk. Uit het zicht van al te veel pottenkijkers hield Sama er, zacht uitgedrukt, niet al te frisse praktijken op na. Wie data moet labelen voor Sama verdient volgens het onderzoek van TIME tussen de 1,32 en 2 dollar per uur. Enkele medewerkers wilden anoniem getuigen en schetsten een beeld van de arbeidsomstandigheden bij Sama. Een beeld dat veel gelijkenissen vertoont met mentale folterpraktijken.

Een minder belicht aspect van de ontwikkeling van ChatGPT is de uitbuiting van Keniaanse arbeiders die aan de ontwikkeling vooraf ging.

OpenAI tekende eind 2021 drie contracten met Sama, elk goed voor 200.000 dollar. Aan ieder contract was een bepaald aanstootgevend onderwerp gekoppeld dat gelabeld moest worden. Dus werden in Sama drie teams van ongeveer elk 12 mensen samengesteld die moesten werken rond respectievelijk seksueel misbruik, haatspraak en gewelddadig taalgebruik. Per shift van 9 uur moesten ze 150 tot 250 tekstfragmenten doorploegen, elk van 100 tot 1000 woorden. Alle werknemers die wilden getuigen verklaarden mentale littekens te hebben opgelopen hierdoor. Weliswaar hadden ze recht op groepsbijstand en individuele hulp door welzijnswerkers, maar dit bleek in realiteit dode letter te zijn.

In de contracten was sprake van een vergoeding van 12,5 dollar per uur. Hiervan stak Sama 6 tot 9 keer het bedrag in eigen zak dat de werknemers zelf overhielden. De laagste werknemers in de hiërarchie verdienden zo netto 1,32 dollar per uur, 1,44 dollar als ze hun targets gebaseerd op snelheid en precisie haalden. De meer senior werknemers konden tot 2 dollar maximum per uur verdienen. Ter referentie, in lageloonland Kenia is er strikt genomen geen minimumloon, maar het minimumloon van een receptionist in hoofdstad Nairobi is 1,52 dollar per uur. Geen vetpot dus, zeker niet wanneer je voor dat geld continu teksten van het internet moet doorworstelen waarin onder andere verkrachtingen expliciet worden beschreven.

Maar het bleef niet bij teksten. Al in februari van 2022 krijgt Sama er een ander project bij. Om hun AI tools veiliger te maken acht OpenAI het raadzaam ook aanstootgevende beelden te weren. Dus naast het oogsten van de meest gore teksten moeten de werknemers van Sama vanaf dan ook seksueel en gewelddadig getinte afbeeldingen labelen en doorspelen naar OpenAI. TIME kon vaststellen dat het hier ging om wel erg expliciet beeldmateriaal. Zo kregen de Keniaanse werkkrachten beelden van kindermisbruik, bestialiteit en seksslavernij meermaals en herhaaldelijk onder ogen. Ook het labelen van grafische foto’s van gewelddaden en moorden behoorde tot hun takenpakket. Na enkele weken komt Sama echter te weten dat een aanzienlijk deel van de beelden die ze moeten verwerken illegaal zijn onder de wetgeving van de Verenigde Staten. Dit stond niet vermeld in het initiële contract met OpenAI en werd slechts met mondjesmaat toegegeven door het bedrijf nadat het werk al was begonnen. Sama zet het project en bij uitbreiding alle bestaande contracten met OpenAI op dat moment meteen stop. 8 maanden voor de einddatum die contractueel vastligt.

Dit betekende voor veel van de werknemers van Sama een einde van de onmenselijke taak die ze moesten vervullen, maar ook meteen het einde van hun (tijdelijke) werkzekerheid. Enkelingen worden door Sama doorgesluisd naar andere, nog slechter verdienende jobs, met verlies van eventuele bonussen. De meerderheid staat op straat. Afgedankt zonder pardon na enkele maanden mentaal verwoestend werk. Maar het is niet enkel om humanitaire redenen dat Sama de samenwerking met OpenAI plots en vervroegd een halt toeroept. Op 14 februari 2022 reeds publiceerde TIME een artikel Inside Facebook’s African Sweatshop. Het stramien is herkenbaar. Sama’s werknemers moeten mogelijke inhoud voor Facebook filteren, dus honderden duizenden extreem gruwelijke beelden van executies, verkrachtingen, kindermisbruik,… bekijken en labelen. Dit voor 1,5 dollar per uur. Een ramp voor de PR van Sama, dat ten koste van alles ook nog eens wil vermijden dat een gelijkaardige opdracht voor OpenAI uitlekt, met strikt illegale beelden. Sama zet dus voornamelijk om deze reden de samenwerking met OpenAI stop en kondigt in januari 2023 aan dat ze geen opdrachten meer zal vervullen gelinkt aan gevoelige inhoud.

En nu?

Dit feit neemt natuurlijk enkele zaken niet weg. Ten eerste zal er, tot nader order, steeds nood zijn aan menselijk werk om AI-systemen te laten werken en de geleverde inhoud te modereren. Het doornemen en labelen van massaal veel, vaak erg expliciete, inhoud is en blijft inherent het werk van mensen achter een scherm, hoe slim en zelfsturend de AI ook wordt. Verder moeten we er ons van bewust zijn dat hoog innovatieve bedrijven zoals OpenAI en andere Big Tech Sillicon Valley giganten het niet erg nauw nemen met de werkomstandigheden van de mensen die achter hun intelligente systemen schuilgaan. Jeff Bezos en Elon Musk staan niet bekend voor hun grote empathie met hun werknemers. Laat staan dat ze zich zouden bekommeren om enkele bedrijven in het globale zuiden die, ver weggestopt van al te bemoeizuchtige internationale organisaties en vakbonden, hun personeel uitbuiten voor een hongerloon en geen hoge pet op hebben van hun mentaal welzijn. Het is onze taak als vakbond, in samenwerking met partnerorganisaties in binnen- en buitenland om hier blijvend waakzaam voor te zijn. Om transparantie te eisen over de arbeidsprocessen die achter de computer schuilen. Om te hameren op menselijke en faire arbeidsomstandigheden en een billijke verloning voor zij die voor een hongerloon de techmiljardairs gedwongen poen helpen scheppen.

Share on FacebookTweet about this on TwitterShare on LinkedInEmail this to someone