VCP zet in op gevolgen kunstmatige intelligentie

Door de VCP is KI hoog op de agenda gezet. De VCP heeft het onderwerp opgepakt omdat het op alle fronten impact heeft. Werk en inkomen zijn belangrijk, maar onderwijs en ethische vraagstukken net zo goed. ´Kunstmatige intelligentie, je kunt het maar beter omarmen, maar hou wel de controle´, zegt VCP adviseur Catelijne Muller, opsteller van een baanbrekend Europees advies over dit onderwerp.

Niet te stoppen
Een robot die voor de klas staat. Het is een interessante gedachte en technisch zou het op termijn zomaar kunnen. Maar willen we dit ook? Is dit waar we als samenleving heen willen omdat het kan, of moeten we als mens toch achter de knoppen blijven zitten en onszelf toestaan om simpelweg te zeggen: tot hier en niet verder. Blijven we als mens toch liever verantwoordelijk voor wat er gebeurt?

Mens houdt controle
Wat Catelijne Muller betreft wordt het dat laatste. Hoe snel kunstmatige intelligentie ook voortschrijdt en in welke richting dan ook, uiteindelijk moet de mens bepalen wat er gaat gebeuren en wat we met zijn allen willen. Voor de EESC (de Europese variant van de Sociaal Economische Raad) schreef Muller een rapport over kunstmatige intelligentie. Belangrijkste conclusie van het rapport: omarm het, maar wel zo dat het beheersbaar blijft. En begin nu met nadenken over de maatschappelijke implicaties, want de ontwikkelingen gaan snel.

Verantwoordelijk
Volgens het rapport is er geen domein waarin kunstmatige intelligentie geen impact zal hebben. ´Kunstmatige intelligentie gaat onder meer over de toekomst van werk, maar net zo goed over wetgeving en ethische vraagstukken. Juist daarom moet je je bij elke stap die je kunt zetten afvragen, willen we dit ook echt?´ Muller noemt als voorbeeld Estland, waar men erover nadenkt om kunstmatige intelligentie als rechtspersoon aan te merken. ´Dat is nogal wat, want stel dat er door toedoen van kunstmatige intelligentie iets gebeurt waardoor je als mens wordt getroffen, dan zou dat betekenen dat je verhaal moet halen bij een machine, of een algoritme. Daar moeten we niet aan beginnen. Niet in de minste plaats omdat het de preventieve functie van het aansprakelijkheidsrecht ondermijnt. De dreiging van aansprakelijkheid weerhoudt een producent ervan iets op de markt te brengen dat niet deugt. Wat als een robot voor de klas een verhaal houdt dat inhoudelijk niet klopt. Wat mij betreft is en blijft de mens verantwoordelijk, en ik sta daarin zeker niet alleen. Belangrijke wetenschappers delen deze mening.´

Jong geleerd
Het is wel belangrijk dat je als samenleving leert omgaan met kunstmatige intelligentie omdat het er nou eenmaal is, en dat je dus ook op jonge leeftijd al leert samenwerken met machines die zelf kunnen denken. In het EESC-rapport wordt dat ook wel complementariteit genoemd. Mens en machine moeten elkaar leren aanvullen. ´Op die manier houd als je als mens niet alleen controle maar je houdt ook plezier in je werk.´ Het EESC pleit nadrukkelijk ook voor investeringen in sectoren die niet door kunstmatige intelligentie worden bedreigd.

Impact
De vakcentrale VCP, waar UnieNFTO bij is aangesloten, heeft kunstmatige intelligentie hoog op agenda gezet omdat het steeds meer impact heeft op de samenleving en omdat het links- of rechtsom impact zal hebben op werk en inkomen. Eind 2016 werd op het jaarlijkse VCP-symposium al gewaarschuwd over de mogelijke gevolgen van kunstmatige intelligentie. Denk aan computers die het werk van rechters kunnen overnemen of apparaten die medische ingrepen uitvoeren.

Waakzaam
Volgens Muller moet de samenleving waakzaam zijn op wat kunstmatige intelligentie in de praktijk kan betekenen. ´Het lijkt misschien aantrekkelijk om het werk van een rechter door een kunstmatig intelligent systeem te laten overnemen. Zo zal een systeem veel sneller veel meer data kunnen doorgronden dan een mens. Maar we moeten kritisch zijn. In de eerste plaats moeten de data deugen. Er zijn voorbeelden waaruit blijkt dat je met kunstmatige intelligentie juist vanwege de data flink de mist in kunt gaan. In Amerika werd een zwart meisje dat een fiets had gestolen door een algoritme als risicovol aangemerkt, terwijl een blanke man met een crimineel verleden op borgtocht vrij kwam. Zo ver mag het hier dus niet komen. En in de tweede plaats bestaat het rechtersvak uit veel meer dan het doorploegen van (historische) data. Rechters passen ook compassie toe, laten hun ervaring meewegen, houden rekening met gewijzigde omstandigheden en de houding van een verdachte, et cetera. Ik zou veel liever hebben dat de ontwikkelaar met de rechter om de tafel gaat zitten en vraagt: “Wat heb jij nodig om een betere rechter te worden? Dan ontwikkel ik dat.”´

Juiste gegevens
Muller schudt de denkbeeldige voorbeelden moeiteloos uit haar mauw. ´Stel je hebt een sollicitatie lopen en een algoritme bepaalt of je die baan ook echt krijgt, dan mag je wel hopen dat de gegevens waarop dat algoritme zich baseert juist zijn. Net zo goed zou een algoritme kunnen bepalen of je een hypotheek krijgt of niet. De data waarop zo’n algoritme zich baseert, moeten altijd kloppen. Het lijkt vanzelfsprekend dat dat ook zo is, maar het zijn wel mensen die die data erin stoppen. Dit vereist dus grote zorgvuldigheid. Het moet controleerbaar blijven.´

Sectoren
Om de gevolgen van kunstmatige intelligentie in goede banen te leiden, moeten beleidsmakers, technici, sociale partners maar ook mensen met een ethische achtergrond met elkaar om de tafel. ´Met een goede en structurele dialoog kunnen we ontwikkelingen volgen en sturen.´ Ook op sectorniveau moeten volgens Muller werkgevers en werknemers met elkaar in gesprek over de gevolgen van kunstmatige intelligentie. Want door kunstmatige intelligentie gaat niet alleen werk verloren, ook de aard van het werk verandert en de mate waarin iedereen mee kan blijven doen. ´Hoe kunstmatige intelligentie werk uiteindelijk gaat veranderen weten we niet. Er kunnen banen verdwijnen maar er zouden net zo goed nieuwe banen kunnen bijkomen. Per sector kan dat verschillen en juist daarom moeten de sociale partners op sectorniveau met elkaar het gesprek aangaan. Dat geldt al helemaal in sectoren waarin hoger opgeleiden en professionals actief zijn. Denk niet alleen aan rechters maar ook bijvoorbeeld aan specialisten. Kunstmatige intelligentie vervangt niet zozeer spierkracht maar denkkracht. Tussen de sociale partners is een intensieve dialoog nodig over de impact van nieuwe technieken op professionals, op de arbeidsmarkt en op de samenleving.´

Bijscholing
´Als we het onderwerp niet actief oppakken lopen werknemers het risico aan de kant te komen staan. Dat gebeurde tijdens de industriële revolutie en dat mag niet opnieuw gebeuren. Een van de manieren om hiermee om te gaan is om mensen doorlopend bij te scholen. De VCP maakt zich daar sterk voor in het sociaal overleg. Scholing wordt steeds meer onderdeel van je werk. Je doet het er niet even bij. Dat betekent dat je voortdurend moet kijken wat je volgende stap zal zijn, als bedrijf en dus ook als werknemer. De fiscale mogelijkheden voor ontwikkeling en scholing moeten wat de VCP betreft worden verruimd. Werkgevers en werknemers moeten samen kijken hoe ze hiermee om kunnen gaan, zodat de BV Nederland in de toekomst ook geld kan blijven verdienen.´
[Afbeelding EESC domeinen:
begeleidende tekst

Het EESC rapport beschrijft twaalf domeinen waarop kunstmatige intelligentie (AI) impact heeft, waaronder wetgeving, educatie, veiligheid, privacy en arbeid. Het rapport is in Brussel goed ontvangen, vertelt Muller. ´De Europese Commissie is bezig met het opstellen van een strategie voor kunstmatige intelligentie. Dat is een goede zaak. Ook bij het Europees parlement heeft kunstmatige intelligentie de volle aandacht.´

 

Facebooktwittergoogle_pluslinkedinmail