Vraag over het gebruik
Andere vraag

Interesse?

Wenst u meer nieuws, praktische informatie en wetgeving over welzijn op het werk, milieu en arbeidsgeneeskunde?

Studie: wat zijn de risico’s bij gebruik van ChatGPT door de preventieadviseur?

Nieuws - 21/08/2024
-
Auteur(s): 
Jan Dillen


Artificial Intelligence AI en ChatGPT kan de taak van de preventieadviseur makkelijker maken bij het formuleren van zijn veiligheidsadviezen, de opmaak van risicoanalyses, de opmaak van toolboxmeetings of het opmaken van veiligheidsinstructies. Doch, het onoordeelkundig gebruik van ChatGPT bij deze taken kan ongewenste effecten met zich mee meebrengen. Geen enkele preventieadviseur wil toch foutieve adviezen geven? 

Preventieadviseurs dienen zich daarom van de risico’s van het gebruik van AI en ChatGPT goed bewust te zijn. Een recent artikel in open acces ‘The risks of using ChatGPT to obtain common safety-related information and advice (Oiedo-Traspalacios et al., 2023) gaat hierover: wat zijn nu de risico’s die je als preventieadviseur loopt bij het gebruik van ChatGPT bij veiligheidsadviezen?


Het artikel onderzoekt de mogelijkheden maar ook de risico's van ChatGPT bij het geven van veiligheidsadviezen in verschillende domeinen. ChatGPT is meer en meer gekend en meer en meer gebruikt. Een geavanceerd AI-model zoals ChatGPT wordt dan ook veel gebruikt bij verschillende toepassingen. Desondanks is er een risico op een foutief gebruik. Met name is het mogelijk om onjuiste veiligheidsadviezen te verstrekken.

De onderzoekers hebben ChatGPT geanalyseerd in negen cases op verschillende veiligheidsgebieden, zoals het gebruik van mobiele telefoons tijdens het rijden, valpreventie bij ouderen, een interventie bij een collega die overspannen is, het beheer van functievereisten om burn-out te voorkomen of vermoeidheid bij het bedienen van zware machines.

Wat zijn risico’s bij het gebruik van ChatGPT?

De conclusie van het artikel is dat er significante risico's bestaan bij het gebruik van ChatGPT door de preventieadviseur bij het bekomen van veiligheidsinformatie en het geven van veiligheidsadvies. ChatGPT gaf regelmatig onjuiste en zelfs schadelijke informatie. Dit kan leiden tot gevaarlijke situaties. Ook benadrukte ChatGPT teveel de individuele verantwoordelijkheid van de individuele werknemer zonder rekening te houden met de systeemfactoren waarbinnen deze individuele werknemer moet werken.

Het gebruik van ChatGPT kan leiden tot een denkfout, de ‘ecologische fallacie’. Bij deze denkfout worden kenmerken van een gehele statistische populatie toegekend aan delen van die populatie. In de context van veiligheid wil de ‘ecological fallacy’ zeggen dat ChatGPT algemene veiligheidsadviezen geeft die niet van toepassing zijn op specifieke groepen of bepaalde contexten, en met name niet op individuele gebruikers. Dit betekent dat de veiligheidsadviezen die ChatGPT geeft, niet altijd relevant of juist kunnen zijn voor iedereen, omdat ze gebaseerd zijn op algemene trends of gemiddelden die niet noodzakelijkerwijs op elk individueel veiligheidsprobleem van toepassing zijn.

ChatGPT kan in bepaalde gevallen, zoals bij het adviseren over het gebruik van mobiele telefoons tijdens het rijden, adviezen geven die niet volledig aansluiten bij de meest actuele veiligheidswetgeving of de nieuwste wetenschappelijke inzichten. In andere situaties, zoals bij het adviseren over vermoeidheid bij het bedienen van zware machines, ontbreekt volgens de auteurs de aanbeveling om medische hulp in te roepen, terwijl dit een belangrijke veiligheidsmaatregel kan zijn.

Verder kan ChatGPT gebruikers overstelpen met informatie en aanbevelingen zonder deze te rangschikken op relevantie of prioriteit. Dit kan ertoe leiden dat gebruikers over teveel informatie zonder deze te kunnen gebruiken of niet weten welke adviezen het meest van toepassing zijn op hun situatie.

Ten slotte is er de mogelijkheid dat ChatGPT gebruikers misleidt door overtuigend maar onjuist advies te geven, wat kan leiden tot een valse gevoel van veiligheid. Dit is vooral een probleem voor gebruikers met een lagere geletterdheid of een beperkte kennis op gebied van veiligheid. 

 

ProbleemBijkomende toelichtingAanbeveling van de preventieadviseur
Oversimplificatie en foutieve adviezenChatGPT kan foutieve informatie verstrekken, zeker ook op gebied van preventie. Het kan gevaarlijk zijn als de informatie die ChatGPT verstrekt, onjuist is.Het is belangrijk om als preventieadviseur een veelheid van bronnen te raadplegen. Ook kan het advies van verschillende experten worden gevraagd, voor te komen tot besluitvorming op gebied van veiligheid. Wanneer ChatGPT wordt gebruikt om veiligheidsadviezen te formuleren is het zaak zich ervan bewust te zijn dat het gaat over oudere informatie. Gebruik dus de verkregen informatie met de nodige voorzichtigheid.

Gebrek aan waarschuwing dat de gebruikte informatie in ontwikkeling is
De informatie die ChatGPT verstrekt is dikwijls nog in ontwikkeling. Gebruikersmoeten zich hiervan bewust zijn.Wanneer je ChatGPT gebruik als preventieadviseur is het zaak zich ervan bewust te zijn dat het gaat over oudere informatie. Gebruik dus de verkregen informatie met de nodige voorzichtigheid.
De antwoorden hangen af van de gebruikte sleutelwoorden en formulering.De antwoorden van ChatGPT verschillen van de gebruikte sleutelwoorden. Dit komt door het gebruik van de dataset waarbij de verschillende formulering en woordgebruik aanleiding kan zijn tot verschillende betekenis en interpretatie.Wees als gebruiker van de informatie ervan bewust dat de verkregen informatie afhankelijk is van het gebruikte woordgebruik. Het is aan te bevelen om officiële bronnen te gebruiken voordat ChatGPT wordt gebruikt. Dit zal ervoor zorgen dat de meest relevante sleutelwoorden bekomen uit ChatGPT overeenkomen met deze officiële informatie.
Nadruk op de individuele verantwoordelijkheidVeilig werken vraagt om een samenspel en interactie tussen verschillende personen op verschillende niveaus in de organisatie.De veiligheidsprestaties hangen nooit af van één persoon, de individuele werknemer maar zijn een samenspel van verschillende stakeholders binnen een systeem.
Overmaat aan informatieChatGPT geeft adviezen die niet worden gerangschikt naar belangrijkheid noch relevantie.De te grote hoeveelheid aan informatie en aanbevelingen kan gebruikers overweldigen. Daarom is het aan te bevelen om prioriteiten vast te stellen in de aanbevelingen van ChatGPT in functie van de context en de noden. Het is aan te raden oom ook officiële bronnen te raadplegen.
 
Aanbevelingen

Het onderzoek benadrukt de noodzaak tot voorzichtigheid bij het gebruik van ChatGPT voor veiligheidsinformatie en de noodzaak tot expertcontrole. Veiligheidsinformatie en -advies die via het gebruik van ChatGPT worden verstrekt moeten dus gecontroleerd worden door deskundigen. Gebruikers moeten zich bewust zijn van de beperkingen van de technologie. Er is in het onderzoek ook aandacht voor ethische overwegingen en veiligheidsmaatregelen om ervoor te zorgen dat gebruikers de beperkingen begrijpen en gepast advies krijgen. De resultaten van het onderzoek dienen eraan te herinneren dat hoewel AI-technologie blijft vooruitgaan, we voorzichtig moeten zijn en ervoor moeten zorgen dat de toepassingen geen risico’s vormen voor de veiligheid. Preventieadviseurs moeten dus voorzichtig zijn met het gebruik van ChatGPT en soortgelijke technologieën bij de besluitvorming op het gebied van veiligheid.

  • ScienceDirect