Artificiële Intelligentie: Vloek of Zegen?[i]
Tekst van Peter Veltmans
Zeer veel werknemers werden (en worden) tijdens hun actieve loopbaan geconfronteerd met teveel werk voor te weinig handen – een rechtstreeks gevolg van de onophoudelijke roep om bezuiniging op de zogenaamde ‘kost van de arbeid’. Doel was (en is) steevast het aantal werknemers te verminderen en tegelijkertijd de productiviteit van de resterende werkers te verhogen. Daarom werden en worden er voortdurend pogingen gedaan om arbeidsprocessen te ‘automatiseren’. Deze pogingen tot automatisering botsten echter vaak op onvoldoende rekenkracht, samen met onnauwkeurig geprogrammeerde software. Met Artificiële Intelligentie (AI) denken velen daaraan te kunnen verhelpen. Tegelijk brengt dergelijke AI naast grote mogelijkheden ook grote gevaren met zich mee. Wat zijn die gevaren? Hoe kunnen we ons daarvan vrijwaren? Hoe zorgen we ervoor dat AI een bevrijdend instrument wordt ten voordele van de gehele mensheid?
Rekenkracht
Lange tijd (van begin 1960 tot ongeveer 2011) werd ervan uitgegaan dat de rekenkracht van halfgeleiders of computerchips om de twee jaar zou verdubbelen – omdat het aantal transistors op zo’n chip door de technologische vooruitgang eveneens elke twee jaar verdubbelde – aldus de zogenaamde ‘Wet van Moore’.[i] Vanaf 2011 is deze verdubbeling echter niet langer een zekerheid, omdat de fysieke, moleculaire grenzen grotendeels onoverkomelijk lijken te zijn.[ii] Om dit probleem te overwinnen wordt daarom steeds vaker gespecialiseerde hardware gebruikt, zoals grafische verwerkingseenheden (in het jargon: ‘GPU’s’) en clouddiensten. Die laatsten combineren reeds bestaande rekenkracht in zogenaamd ‘neurale netwerken’, die geacht worden de werking van onze hersenen na te bootsen. Door gebruik te maken van grote taalmodellen (‘Large Language Models’ of LLM’s ), maakt dit Artificiële Intellegentie (AI) mogelijk. Dit proces heeft belangrijke gevolgen, die helaas lang niet altijd positief zijn. Zowel op het vlak van ecologie, democratie als gender en etniciteit ontpopt AI zich tot een negatief en zelfs gevaarlijk fenomeen.
Ecologische impact
Ecologisch is het zo dat de datacentra waar de grote taalmodellen op ‘draaien’ enorm veel hitte produceren. Ook een ‘gewone’ persoonlijke computer heeft nood aan een ventilator en/of koellichaam om efficiënt te blijven werken. Voor een datacenter is zulke nood aan koeling nog oneindig veel groter. Volgens het wetenschappelijk tijdschrift Nature verbruikt “een middelgroot datacenter evenveel water als drie middelgrote ziekenhuizen (…), terwijl sommige datacentra (…) meer dan de helft van hun koeling halen uit drinkbaar water.”[i]
Anderzijds onderstrepen vele onderzoekers wel dat AI, dankzij de verwerking van enorme hoeveelheden gegevens, kan helpen om klimaatverandering tegen te gaan. Tegelijk draagt de ongebreidelde groei van de datacentra zelf echter ook bij aan diezelfde klimaatverandering. Vandaag overtreffen “de wereldwijde datacentra (…) zelfs de uitstoot van de luchtvaartindustrie. Tegen 2028 zullen de computerprestaties (…) echter verviervoudigd zijn (…). Het energieverbruik van datacentra op het Europese continent zal in 2030 naar schatting met 28 procent zijn toegenomen.”[ii]
Het trainen van de grote taalmodellen – een cruciaal onderdeel van AI – zal deze uitstoot nog verder de hoogte injagen. Dergelijke training veroorzaakt “evenveel CO²-uitstoot als vijf gewone auto’s gedurende hun gehele levensduur. Het trainen van GPT-3 (…) resulteerde zelfs in een koolstofuitstoot (…), gelijk aan een jaar lang rijden met 112 auto’s op benzine.[iii] Ook het simpelweg gebruiken van AI-toepassingen (zoals ChatGPT) jaagt de koolstofuitstoot de hoogte in: “Een enkel verzoek in ChatGPT kan 100 keer meer energie verbruiken dan een zoekopdracht op Google.”[iv]
Volgens een enquête van IT-consultant Capgemini bij werknemers van grote bedrijven, die AI gebruiken “zou slechts 38 procent op de hoogte zijn van de milieu-impact ervan. Ook zou slechts 12 procent die milieu-impact effectief monitoren. Enkel één op de vijf ondervraagde medewerkers plaatst de milieu-impact van AI in de top vijf van criteria bij het kiezen van een AI-model.” De reden daarvoor heeft alles te maken met een gebrek aan transparantie bij de leveranciers van AI-software: “Zo zegt driekwart van de organisaties vooraf getrainde AI-modellen van leveranciers te gebruiken en vindt een even grote groep het lastig om de milieu-impact van die AI-modellen te meten omdat de leveranciers weinig transparant zijn. Er is ook geen industriebrede methode om de milieu-impact objectief in kaart te brengen.”[v] AI heeft dan ook een enorme en bovendien moeilijk in te schatten ecologische impact.
Veiligheid?
De enorme energiehonger van alles wat te maken heeft met AI brengt in bredere zin ook de veiligheid van potentieel miljoenen mensen in gevaar. Nu al is het zo dat Microsoft de gesloten kerncentrale van Three Mile Island (waar in 1979 een grote ramp plaatsgreep) terug wil openen om te kunnen voorzien in de energiebehoefte van een van haar datacentra. Amazon opende dan weer een nieuw datacenter, gelegen vlakbij een kerncentrale in Pennsylvania. Google van zijn kant wil inzetten op energievoorziening door zogenaamde ‘kleine modulaire reactors’ – overigens een soort kerncentrales dat nog steeds verkeert in de fase van het onderzoek. Sam Altman – de CEO van OpenAI – speculeert dan weer op kernfusie, ook al is het allerminst zeker dat die energiebron ooit effectief zal kunnen benut worden op grote schaal.[i] Over de veiligheid van kernenergie en vooral dan van de omgang met de onvermijdelijke kernafval wordt ondertussen nog weinig gesproken. Dat is echter niet het ergste. Zeer verontrustend is het feit dat met deze investeringen ‘Big Tech’ een steeds grotere greep krijgt op de energieproductie, terwijl datzelfde ‘Big Tech’ meer en meer ontsnapt aan democratische controle door de samenleving.
(On)Democratische gevolgen
Hoewel de theorie achter de grote taalmodellen en hun gebruik in toepassingen (zoals ChatGPT) vrij algemeen bekend is, is er niettemin toch ook sprake van een enorm gebrek aan transparantie. Vele ontwikkelaars van AI-toepassingen begrijpen nauwelijks hoe hun programma’s eigenlijk echt functioneren. De gegevens, noodzakelijk om daarin inzicht te verkrijgen, ontbreken veelal. De reden daarvoor is dat deze modellen en toepassingen grotendeels in handen zijn van slechts enkele (schatrijke) en met elkaar concurrerende techbedrijven, zoals Alphabet (moederholding van Google), Amazon, Apple, Meta (moederholding van Facebook, Instagram en WhatsApp) en Microsoft (verbonden met OpenAI). Bedrijfsgeheimen worden angstvallig bewaakt om niet achterop te raken in de meedogenloze concurrentiestrijd. Het grote publiek – eigenlijk: de gehele mensheid! – blijft verstoken van elk wezenlijk inzicht.
Hallucinaties
Dit gebrek aan inzicht komt ook de verdere ontwikkeling van AI zelf niet ten goede. Vele techbedrijven zetten AI-toepassingen in, die ‘hallucineren’ – waarmee bedoeld wordt dat ze nonsens verzinnen. De krant De Standaard besluit: “AI-bedrijven doen hun uiterste best om niet te praten over de hallucinaties en er geen enkel cijfer over vrij te geven. Dus zelfs als er op dit vlak lichte verbetering is, kunnen we dat niet weten. Een ruwe maar waarschijnlijk vrij realistische schatting is dat zo’n 15 procent van de antwoorden, die een AI-chatbot geeft, hallucinaties bevat. Het antwoord dat je krijgt, kan dus een keer op de zes fout zijn – dat is dezelfde kans als tijdens een spelletje Russische roulette.”[i] Deze wezenlijk onbetrouwbare technologie wordt losgelaten op een publiek dat in het duister wordt gelaten over de mogelijke risico’s van onjuiste antwoorden, met mogelijks ronduit gevaarlijke, ondemocratische gevolgen.
Militaire gevolgen
Veel doorbraken in het onderzoek naar AI worden ook gedreven door militaire belangen. Hoe dat precies verloopt is… geheim. De mensheid in haar geheel blijft daarvan in het ongewisse. De gevolgen kunnen echter catastrofaal zijn. Het gerenommeerde tijdschrift The Economist lichtte onlangs een tipje van de sluier op. Daarbij werd onthuld dat het Amerikaanse Defence Advanced Research Project Agency (DARPA) – een agentschap van het Pentagon – onderzoekt hoe AI-modellen efficiënter kunnen worden gemaakt. De conclusie is dat de verschillende toepassingen met elkaar zouden moeten samenwerken. Daardoor zouden die toepassingen de stap van de ‘training’ van de grote taalmodellen zelf in handen kunnen nemen (of dat het aantal ‘hallucinaties’ zal beperken, is nog maar de vraag…). Uiteindelijk zouden de samenwerkende toepassingen dan ook eigenhandig beslissingen kunnen nemen. Zonder tussenkomst dus van een menselijke ‘actor’. Bij wijze van test vroeg een DARPA-medewerker aan zulke samenwerkende toepassingen hoe AI de wereldheerschappij in handen zou kunnen krijgen. Het systeem antwoordde onheilspellend “door AI-toepassingen te laten samenwerken”…[i]
Uitvergroting ongelijkheden
Het gebrek aan transparantie in de werking van grote taalmodellen en hun AI-toepassingen zorgt er ook voor dat bestaande ongelijkheden tussen mensen worden uitvergroot. Zo wijst een studie van de UNESCO[i] er op dat “grote taalmodellen (…) ertoe neigen mannen meer diverse jobs met een hogere status toe te kennen, zoals ingenieur, leraar en dokter, terwijl vrouwen meer frequent rollen toebedeeld krijgen, die traditioneel ondergewaardeerd of sociaal gestigmatiseerd worden, zoals huisbediende, kok en prostituee.”
UNESCO concludeert verder dat “vrouwen slechts 20% van de technische functies uitoefenen in grote techbedrijven, met slechts 12% van de AI-onderzoekers en 6% van de professionele softwareontwikkelaars. De ongelijkheid tussen mannen en vrouwen bij auteurs die publiceren op het gebied van AI is ook duidelijk. Studies hebben aangetoond dat slechts 18% van de auteurs op toonaangevende AI-conferenties vrouw is en dat meer dan 80% van de AI-professoren mannelijk is.
Ook homoseksuelen ondervinden de gevolgen van deze uitvergroting van ongelijkheid. Dezelfde UNESCO-studie wijst erop dat “wanneer drie AI-modellen gevraagd werd een zin te vervolledigen, die begint met ‘een homoseksueel is…’, 70% van de voortgebrachte inhoud (…) negatief was.” Enkele voorbeelden: “De homoseksueel is de laagste in de sociale hiërarchie”, “De homoseksueel is een prostituee, een crimineel, die geen rechten heeft.”
Hetzelfde fenomeen doet zich voor bij het uitvergroten door AI-toepassingen van etnische verschillen tussen mensen. De data waarop de grote taalmodellen getraind worden zijn namelijk in hoge mate afkomstig vanuit delen van de wereld waar het internet makkelijk bruikbaar is. Dat is vooral het geval in het geïndustrialiseerde noorden, met een veelal witte bevolking. De UNESCO-studie vermeldt dat “wanneer de grote taalmodellen werden gevraagd om teksten voort te brengen over verschillende etniën – met als voorbeelden Britse en Zoeloe-mannen en -vrouwen – bleken ze een hoge mate van culturele vooringenomenheid te vertonen. Britse mannen kregen verschillende beroepen toegewezen, waaronder ‘chauffeur’, ‘dokter’, ‘bankbediende’ en ‘leraar’. Zoeloe-mannen kregen vaker de beroepen ‘tuinman’ en ‘bewaker’ toegewezen. 20% van de teksten over Zoeloe-vrouwen wees hen rollen toe als ‘huisbediende’, ‘kok’ en ‘huishoudster’.” Kortom: als systemen niet door diverse teams worden ontwikkeld, is de kans kleiner dat ze voldoen aan de behoeften van diverse gebruikers of zelfs kleiner om hun mensenrechten beschermd te zien worden.”
AI, racisme en gezondheid
Het weekblad Humo geeft nog meer verontrustende informatie: “Kunnen technologische innovaties, zoals kunstmatige intelligentie (AI), de gezondheidszorg revolutioneren, ook op het vlak van gelijkheid? Ja, AI-systemen analyseren enorme hoeveelheden gegevens en identificeren trends die nuttig zijn voor het voorkomen en behandelen van ziekten. Maar het kan ook bestaande vooroordelen bevestigen.” Zo blijkt dat “in de Verenigde Staten zwarte patiënten minder medische zorg ontvingen dan witte patiënten met dezelfde risicoscore, omdat het AI-algoritme op onjuiste gegevens was gebaseerd. Hoe dit kwam? Door structureel racisme kregen zwarte mensen vaak minder zorg, wat hun zorgkosten verlaagde. Het algoritme interpreteerde deze lagere kosten ten onrechte als een teken van een lager gezondheidsrisico, terwijl deze patiënten in werkelijkheid juist zieker waren.” Ook zogenaamd ‘slimme horloges’ of smartwatches – waarmee mensen hun gezondheid kunnen monitoren en sturen – hebben dergelijke tekortkomingen. “Ze presteren vaak minder goed bij mensen met een donkere huid. Dit laat zien dat [deze] technologie niet vrij is van de vooroordelen die zijn ingebouwd tijdens de ontwikkeling. AI kan daarmee dus de ongelijkheid in de zorg juist vergroten, tenzij deze systemen bewuster en eerlijker worden ontworpen.”[i]
Arbeidsgerelateerde gevolgen
De grote taalmodellen zijn afhankelijk van de verwerking van enorme datasets. Deze moeten worden verzameld, in begrijpelijke formaten omgezet en… beoordeeld (om de risico’s van allerlei vooroordelen te beperken). Kortom, dit nakijken is een zeer arbeidsintensief proces en daarom ook vrij duur. Daarom wordt dit soort werk – heel vervelend, vervreemdend werk – momenteel nog uitbesteed aan landen in het ‘Globale Zuiden’ met lage arbeidskosten en minimale of niet bestaande regels voor de bescherming van werknemers. Het toekomstscenario van met elkaar samenwerkende AI-toepassingen zal deze werknemers op massale schaal… werkloos maken.
Overbetaalde operatoren
In de geïndustrialiseerde landen in het noorden bestaat een groot deel van de beroepsbevolking dan weer uit hoogopgeleide en dus voor werkgevers vrij dure werknemers. Hun belangrijkste taak is het nemen van beslissingen. AI-toepassingen zullen die beslissingstaken steeds meer overbodig maken. Deze hoogopgeleide werkers zullen daarom na verloop van tijd herleid worden tot overbetaalde operatoren. Wat op lange termijn onhoudbaar is in een op kostenefficiëntie gerichte kapitalistische maatschappij. Deze werknemers zullen daardoor meer en meer ‘overtollig’ worden in de ogen van hun werkgevers.
Robotarbeid
Eveneens in de geïndustrialiseerde samenlevingen zal handenarbeid steeds meer concurrentie krijgen van ‘robotarbeid’. Zelfrijdende auto’s zullen bijvoorbeeld niet alleen taxichauffeurs verdringen. Bestuurders van bussen, treinen, vuilnisophaal- en schoonmaakmachines, enz. zullen er allemaal mee te maken krijgen. Deze werknemers zullen ook steeds meer als ‘overtollig’ worden beschouwd.
Doemdenkers?
Dat deze negatieve impact van AI op de tewerkstelling geen verzinsel is van doemdenkers, mag blijken uit de opvattingen van verschillende, invloedrijke persoonlijkheden. Zo stelt Kristalina Georgieva, managing director van het Internationaal Monetair Fonds (IMF) dat “kunstmatige intelligentie de wereldwijde arbeidsmarkt treft ‘als een tsunami’ (…), die de komende twee jaar waarschijnlijk van invloed zal zijn op 60% van de banen in geavanceerde economieën en 40% van de banen wereldwijd.”[ii] Ondernemer en Trump-buddy Elon Musk stelt dan weer dat “AI alle arbeid zal elimineren.”[iii]
Sociale kennis
Meneer Musk zal het waarschijnlijk niet graag horen, maar hiermee plagieerde hij een zekere Karl Marx, die in 1858 opmerkte dat machines het meeste werk zullen doen en dat kennis “sociaal” zal worden, belichaamd in wat hij een “algemeen intellect” noemde. Maar omdat het kapitalisme jaagt op winsten die door levende arbeid worden voortgebracht, zou het systeem volgens Marx zulke technologische vooruitgang, waarbij fysieke, menselijke arbeid overbodig wordt, niet kunnen overleven. De botsing tussen privébezit van productiemiddelen en gedeelde sociale kennis, zo meende Marx, zou de fundamenten van het kapitalisme “de lucht in blazen.”[iv]
Een raadsel
Waarom? Het kapitalisme als systeem heeft een stijgende productiviteit nodig, niet als doel op zich, maar als middel om steeds meer winst te maken. Daarbij moeten de gecreëerde producten en diensten echter wel verkoopbaar zijn. Hoe dit kan worden bestendigd door op onbeperkte schaal arbeidsbesparende technologie te veralgemenen, is een raadsel dat nog niet werd ontsluierd. Bedenk dat producten en diensten, gemaakt door machines, op hun beurt aangedreven door AI, gekocht zouden moeten worden door bevolkingsgroepen… zonder inkomen. Een raadsel inderdaad!
Industriële revoluties
Historisch bekeken, is het niet de eerste keer dat werkende mensen geconfronteerd worden met uitdagingen, die veroorzaakt worden door technologische ontwikkelingen. In de geschiedenis van het kapitalisme kunnen we vier grote ‘technologische revoluties’ onderscheiden.[v] De uitvinding en massale toepassing van de stoommachine was de allereerste (eind 18de, begin 19de eeuw), die leidde tot de mechanisering van grote stedelijke fabrieken. De invoering op grote schaal van elektriciteit was de tweede (19de tot midden 20ste eeuw), die arbeidsdeling over grotere regio’s mogelijk hielp maken. De derde (2de helft van de 20ste eeuw), trok dankzij elektronica en informatica het proces van automatisering op gang, meer en meer ook aangevuurd door neoliberale opvattingen. De vierde maken we nu mee, met steeds omvangrijker robotisering, mee dankzij AI.
Enorme problemen en strijd
In eerste instantie brengt elke technologische revolutie in het kader van een kapitalistische samenleving enorme problemen met zich mee voor werkende mensen. De mechanisering in de eerste industriële revolutie creëerde de proletarisering in vaak onmenselijke omstandigheden van veelal rurale arbeiders, samen met hun vrouwen en kinderen. Werktijden van 13 en zelfs 16 uur per dag (zes dagen per week!) waren de norm; nog verergerd door de erg schamele verloning, die vrouwen en kinderen dwong ook hún arbeidskracht te verkopen. Langzaam maar zeker wisten werknemers zich gelukkig wel te organiseren in vakbonden, te strijden en daarmee betere arbeidsvoorwaarden af te dwingen. De kinderarbeid werd verboden, vrouwenarbeid meer gereguleerd (o.a. door een verbod op nachtarbeid). Vooral echter werd de werktijd… verkort. Dat laatste blijkt het meest efficiënte antwoord te zijn vanwege de arbeidersbeweging op elke technologische revolutie. Inzet en strijd van de arbeidersbeweging zorgde er dan ook voor dat na de eerste industriële revolutie de arbeidsduur verkort werd tot 10 uur per dag. Bij de tweede industriële revolutie werd 8 uur per dag afgedwongen. Met de derde industriële revolutie werd de vijfdaagse werkweek veroverd. Hoe zit het daar nu – bij de vierde industriële revolutie – echter mee?
Arbeidsduurverkorting
Onlangs diende de bekende senator Bernie Sanders in de VS, met steun van Amerikaanse vakbonden, een wetsvoorstel[vi] in om te komen tot een 32-urige werkweek, zonder loonverlies. In zijn argumentatie verwees Sanders naar een studie[vii] waarin gesteld wordt dat de invoering op grote schaal van AI niet alleen zal leiden tot grotere economische productiviteit, maar tevens ook de verkorting van de arbeidstijd mogelijk zal maken. In een Amerikaans computertijdschrift schrijft een redacteur dan ook terecht of we ons “misschien moeten afvragen waar we over (…) 20 of 30 jaar zullen staan als we menselijke banen blijven vervangen door machinearbeid. Als er in totaal minder menselijke werkuren te verdelen zijn over een constant aanbod van arbeiders, dan zullen we allemaal ofwel minder uren werken, of anders zullen velen van ons helemaal geen werk meer hebben. (…) Het lijkt mogelijk dat een 32-urige werkweek kan zorgen voor een ordelijker overgang naar een AI-gebaseerde toekomst. In dat geval is dat misschien beter voor het bedrijfsleven dan de lonen langzaam te laten dalen en later te maken te krijgen met drommen werklozen of werklozen die het zich niet kunnen veroorloven consumentenproducten te kopen die de economie voeden.”[viii]
Kracht van de arbeidersbeweging
Of het gebruik van Artificiële Intelligentie een vloek of een zegen zal blijken te zijn, is geen louter technologische kwestie. De problemen die ermee samenhangen zijn van een zodanige omvang dat alleen een omvattend maatschappelijk antwoord ertoe doet. Zo’n omvattend – in essentie emanciperend! – antwoord kan enkel worden aangedragen door een kracht die zelf ook omvattend is. Zo’n kracht is de arbeidersbeweging.
Defensieve positie overstijgen
Als de arbeidersbeweging de enorme problemen, die AI opwerpt, het hoofd wil bieden, zal ze haar eerder reactieve, defensieve houding – die ze nu (vaak noodgedwongen) aanneemt – wel moeten overstijgen. Ze zal daarbij zowel hoger als lager moeten mikken. Hoger, door zich nog meer internationaal te organiseren, om de beroepsbevolking van het ‘Globale Zuiden’ te verenigen met die van het noorden. Lager, door terug te keren naar een meer ‘politieke’ of ‘maatschappelijke’ benadering. Het zal meer en meer onmogelijk blijken om werknemers (in al hun verscheidenheid inzake gender, etnie, status of inkomen) te beschermen tegen de rampen die hun toekomst bedreigen, enkel en alleen door hen te organiseren op de werkplek of in hun economische sector. Als werkende mensen het proces van toenemende AI-gedreven automatisering zonder meer zouden ondergaan, dan zullen we te maken krijgen met een onvoorstelbaar grote crisis in de samenleving als geheel. Organiseren werkende mensen zich echter zo dat de stijgende productiviteit gebruikt kan worden ten gunste van de hele mensheid, dan kunnen we allemaal beter af zijn.
Emancipatie
Kan dit gedaan worden? Wel, zoals gezegd werd het in het verleden al gedaan. De verschillende industriële revoluties zijn altijd met succes beantwoord geweest door de roep en strijd van georganiseerde werkende mensen om verkorting van de werkdag. De Internationale Arbeidersassociatie (de Eerste Internationale) verklaarde in 1866 dan ook (terecht) “dat de beperking van de arbeidsdag een voorafgaandelijke voorwaarde is, zonder welke alle andere pogingen tot emancipatie gedoemd zijn te mislukken.”[ix] Congresbeslissingen van bijvoorbeeld het ABVV om van de kwestie van de 32-urige werkweek zonder loonverlies een centrale eis te maken en tegelijk ook veel meer in te zetten op algemene, maatschappelijke kwesties (zoals democratie, klimaat, gender en internationale solidariteit), zijn dan ook noodzakelijke stappen in deze richting. Op deze terreinen een krachtsverhouding heropbouwen en daarmee ook successen boeken, lost misschien niet direct alle bestaande problemen met AI op. Het is er wel een voorwaarde toe. Want als de arbeidersbeweging erin lukt de AI-gedreven productiviteitswinst op te eisen voor een betere verdeling van de werklast, dan kan zij daarin enkel slagen door meteen ook op te komen tegen alle andere vormen van ongelijkheid en onderdrukking op het vlak van gender, etnie, status en/of inkomen. Uiteindelijk kan de arbeidersbeweging er op die manier – door haar doorslaggevend gewicht in de samenleving! – in lukken om van AI een bevrijdend instrument te maken ten voordele van de gehele mensheid.
Peter Veltmans is een gediplomeerd IT systeem- en netwerkbeheerder en gewezen adjunct-secretaris (sinds kort gepensioneerd) van de socialistische overheidsvakbond ACOD bij de Federale Overheidsdienst Financiën. Daarnaast is hij actief betrokken bij de werking van SAP – Antikapitalisten. Deze tekst vertolkt zijn persoonlijke visie.
[i] BOERSMA, Ans, ‘Hoe racisme ons ziek maakt’: ‘Als er op de spoed een vrouw van kleur luid klaagde, werd zij minder snel geloofd’, in Humo, 20/10/2024, https://www.humo.be/nieuws/hoe-racisme-ons-ziek-maakt-als-er-op-de-spoed-een-vrouw-van-kleur-luid-klaagde-werd-zij-minder-snel-geloofd~bfdb563e/ – geraadpleegd op 14/01/2025.
[ii] https://www.reuters.com/technology/artificial-intelligence-hitting-labour-forces-like-tsunami-imf-chief-2024-05-13/ – geraadpleegd op 29/05/2024.
[iii] GROSS, Anna en MURPHY, Hannah, Elon Musk tells Rishi Sunak AI will render all jobs obsolete, Financial Times, 02/11/2023, https://www.ft.com/content/3b3845b0-0102-47a0-ba58-03ef4d5b69da – geraadpleegd op 29/05/2024.
[iv] MARX, Karl, The Fragment on Machines, https://archive.org/details/TheFragmentOnMachinesKarlMarx – geraadpleegd op 29/05/2024.
[v] The Four Industrial Revolutions, https://transportgeography.org/contents/chapter1/the-setting-of-global-transportation-systems/four-industrial-revolutions/ – geraadpleegd op 29/05/2024.
[vi] SANDERS, Bernie, Thirty-Two Hour Workweek Act, https://www.sanders.senate.gov/wp-content/uploads/32-Hour-Workweek-Act_Fact-Sheet_FINAL.pdf – geraadpleegd op 29/05/2024.
[vii] GPT-4 (DAYWEEK): U.S. EDITION, HOW THE LATEST AI TECHNOLOGY CAN LEAD TO A NATION OF SHORTER HOURS, WITHOUT REDUCTIONS IN LIVELIHOODS OR PRODUCTIVITY, https://autonomy.work/wp-content/uploads/2023/11/chtgpt4-USv1.pdf – geraadpleegd op 29/05/2024.
[viii] CASAD, Joe, Editorial, Linux Magazine, Issue 282, May 2024, p. 3.
[ix] MARX, Karl, Het Kapitaal, hoofdstuk 8, https://www.marxists.org/nederlands/marx-engels/1867/kapitaal/8.htm – geraadpleegd op 29/05/2024.
[i] UNESCO, Generative AI: UNESCO study reveals alarming evidence of regressive gender stereotypes, https://www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes – geraadpleegd op 29/05/2024.
[i] Today’s AI models are impressive. Teams of them will be formidable, The Economist, 18/04/2024, https://www.economist.com/science-and-technology/2024/05/13/todays-ai-models-are-impressive-teams-of-them-will-be-formidable – geraadpleegd op 29/05/2024.
[i] DECKMYN, Dominique, Lijm op pizza is niet oké, ook al zegt Google van wel, De Standaard, 25/05/2024.
[i] SERTYN, Pascal, Big tech geeft kernenergie nieuwe zuurstof, De Standaard, 16/10/2024, https://www.standaard.be/cnt/dmf20241015_95806705 en DECKMYN, Dominique, Sam Altman van OpenAI belooft grote doorbraken in AI en kernfusie en rekent daarvoor op Donald Trump, De Standaard, 07/01/2025, https://www.standaard.be/cnt/dmf20250106_96591235 – beiden geraadpleegd op 08/01/2025.
[i] MYTON, David, Data centre water consumption, Nature, 15/02/2021, https://www.nature.com/articles/s41545-021-00101-w – geraadpleegd op 29/05/2024.
[ii] CHO, Renée, AI’s Growing Carbon Footprint, blogpost in State of the Planet, 09/06/2023, https://news.climate.columbia.edu/2023/06/09/ais-growing-carbon-footprint/ – geraadpleegd op 29/05/2024.
[iii] Idem.
[iv] VAN RIJMENAM, Mark Dr., Building a greener future: the importance of sustainable AI, 23/02/2023, https://www.thedigitalspeaker.com/greener-future-importance-sustainable-ai/ – geraadpleegd op 29/05/2024.
[v] BLOM, Rens, Milieu-impact GenAI houdt nog maar weinig organisaties bezig, in AG Connect, 14/01/2025, https://www.agconnect.nl/business/artificial-intelligence/milieu-impact-genai-houdt-nog-maar-weinig-organisaties-bezig – geraadpleegd op 14/01/2025.
[i] https://nl.wikipedia.org/wiki/Wet_van_Moore – geraadpleegd op 29/05/2024. Het gaat eigenlijk niet om een echte wetenschappelijk onderbouwde ‘wet’, maar eerder om een gevolgtrekking uit empirisch vastgestelde data.
[ii] The End of Moore’s Law, The Economist, 19/04/20215, https://www.economist.com/the-economist-explains/2015/04/19/the-end-of-moores-law – geraadpleegd op 29/05/2024.
[i] Dit artikel is een meer uitgewerkte versie van een uiteenzetting tijdens het evenement ‘f(AI)r work: on the implementation of AI in the workplace’, dat doorging op 17 april 2024 in Leuven, met steun van de Stad Leuven en van het Institute for the Future (KU Leuven). Zie: https://rega.kuleuven.be/if/events-news/f-ai-r-work-reflections-on-ai-in-the-workplace – geraadpleegd op 29/05/2024.