Vraag over het gebruik
Andere vraag

Interesse?

Wenst u meer nieuws, praktische informatie en wetgeving over welzijn op het werk, milieu en arbeidsgeneeskunde?

Laat Artificiële Intelligentie uw beslissingen niet bepalen

Nieuws - 11/01/2023
-
Auteur(s): 
Michiel Sermeus


 Artificiële Intelligentie (AI) wordt geleidelijk aan in organisaties gebruikt. In de wereld van welzijn op het werk wordt het bijvoorbeeld ingezet om risico’s te beoordelen en aan personeelsmanagement te doen. Maar er is een reëel risico wanneer AI beslissingen begint te nemen zonder menselijke tussenkomst of interpretatie.

 

In een recent artikel in “Psychology Today” wijst professor Matt Grawitch van de Amerikaanse Saint Louis University op de “onbedoelde en ongewenste” risico’s van het overlaten van beslissingen aan AI. Dit doet hij aan de hand van enkele voorbeelden.

Uiteraard, zo merkt hij terecht op – heeft AI grote voordelen: het kan gigantische hoeveelheden data verwerken en op basis daarvan aanbevelingen doen voor beslissingsmakers (de hiërarchische lijn of andere managers). AI hoeft niet altijd problematisch te zijn, denk maar aan GPS-navigatie in de auto. Google Maps, Waze en andere navigatie-apps maken gebruik van AI, en wij maken massaal gebruik van deze apps.

Op zich is dat al niet onschuldig, want door de GPS te gebruiken in plaatsen die we niet kennen leren we minder goed om later zelfstandig (zonder GPS) hetzelfde traject nog eens te volgen. Zonder GPS zouden we immers bepaalde herkenningspunten (“landmarks”) opslaan in onze hersenen, waarmee we een mentale map tekenen die onze interne navigatievaardigheden versterkt.

Wie een GPS gebruikt, wordt er dus meer afhankelijk van en verzwakt de navigatievaardigheden in zijn brein.

Uiteindelijk kiest de gebruiker natuurlijk zelf of hij een GPS gebruikt en de voorgestelde route volgt. Omdat de beslissingsmacht bij de gebruiker ligt en het niet om heel belangrijke beslissingen gaat, is onze afhankelijkheid van AI bij navigatie niet al te problematisch. Maar bij meer belangrijke beslissingen ligt dit toch anders.

Twee problematische voorbeelden

Het eerste voorbeeld gaat over een ontslagronde bij Meta (het moederbedrijf van Facebook). Meta maakte gebruik van AI om 60 medewerkers te selecteren die het bedrijf moesten verlaten. Als argumentering werd gegeven dat dit veel tijd en energie bespaarde. AI nam hier de eindbeslissing, en dan rijzen er wel vragen op, bijvoorbeeld over welke data gebruikt werden.

Professor Grawitch geeft nog een tweede problematisch voorbeeld. In de Verenigde Staten gebruiken dokters, ziekenhuizen en apothekers “NarxCare”, een systeem om automatisch het risico in te schatten van patiënten op het misbruiken van sterke pijnstillers of opioïden. Hiervoor worden ‘machine learning’-algoritmes gebruikt die putten uit enorme hoeveelheden data. Dit resulteert dan in mooie visualisaties en risicoscores. Er is echter geen transparantie over hoe deze risicoscores tot stand komen, of over welke data daarvoor precies gebruikt worden. Er is ook geen bewijs voor de geldigheid van de scores zelf. Dit leidt tot vals-positieve scores (17,2% van de scores; het risico werd onterecht hoog ingeschat) en vals-negatieve scores (13,4% van de scores waarbij het risico te laag werd ingeschat).

Computer says no
Het werkelijke probleem is tweeledig:
  • het is vaak niet duidelijk welke data allemaal worden gebruikt en hoe de voorgestelde beslissing precies tot stand is gekomen (vooral problematisch bij “zelflerende” AI); dit kan leiden tot een zogenaamde “word-of-machine bias”, waarbij gewoon “de stem van het AI-systeem” gevolgd wordt
  • AI-systemen kunnen heel geloofwaardig overkomen omdat hun resultaten ook zo gepresenteerd worden (denk aan visualisaties en risicoscores of aan de voorgestelde acties) waardoor mensen dan al snel geneigd zijn om deze aanbevelingen te volgen: dit noemen we een ‘heuristiek’, een regel die onze hersenen graag volgen; wanneer de resultaten van AI geloofwaardig overkomen, hebben we sterk de neiging om de voorgestelde acties gewoon uit te voeren want op die manier sparen we cognitieve energie in onze hersenen uit

De conclusie is dat AI in staat is om in te werken op onze hersenen en onze manier van denken te veranderen. En dat gaat van GPS over ontslagen tot en met risico’s op de werkvloer.


(foto: Unsplash - Owen Beard)

Aanbevelingen

Ook op het vlak van welzijn op het werk wordt AI gebruikt: bijvoorbeeld voor werknemersbeheer (opvolgen van efficiëntie en productiviteit) of risicobeoordeling.

Het artikel raadt daarom aan om hier heel voorzichtig mee om te gaan, en formuleert enkele korte maar belangrijke aanbevelingen:

  • zorg voor een mensgericht ontwerp, ontwikkeling en gebruik van AI-systemen:  laat de computer het niet overnemen van de mens, zeker niet bij (belangrijke) beslissingen
  • betrek medewerkers bij de ontwerp-, ontwikkelings- en testfasen, bij beoordelingen vooraf en achteraf, evenals bij het gebruik van op AI gebaseerde systemen
  • zorg ervoor dat op AI gebaseerde systemen transparant, verklaarbaar en begrijpelijk blijven
Meer in senTRAL:
Bronnen: