Steeds meer organisaties ontdekken de voordelen van GenAI zoals ChatGPT en Microsoft Copilot. Maar AI lijkt op het gebied van privacy en ethiek nog onontgonnen terrein. Hoe voorkom je als organisatie dat AI-gebruik privacygevoelige en ethische issues met zich meebrengt?
Hoe verhoudt AI zich tot privacy en ethiek? De snelle opkomst van GenAI dwingt ons om daarover na te denken. Neem Microsoft Copilot, een dergelijke tool is qua gebruik heel laagdrempelig, maar de potentiële impact op privacy en ethiek is groot. Komt de data die GenAI gebruikt niet op straat te liggen? Gaat AI mijn baan overnemen? Dat zijn zorgen van zakelijke gebruikers die wij in dit artikel adresseren.
Zorgen over privacy
Zorgen over privacy, zijn meestal zorgen over data. Ten eerste zijn veel organisaties bezorgd over de data security: welke gegevens gebruikt AI en kunnen deze niet per ongeluk in verkeerde handen vallen? Dat kunnen in dit geval twee verschillende ‘handen’ zijn: de externe buitenwereld en interne ongeautoriseerde medewerkers. Ten tweede maken organisaties zich zorgen over de training van AI-modellen. Consumententools zoals ChatGPT gebruiken geregeld ingevoerde data om hun algoritme te trainen. Dat betekent dat ingevoerde bedrijfsgegevens de organisatie verlaten. Bij GenAI-oplossingen die bedoeld zijn voor zakelijk gebruik is dat vaak beter geregeld. Met Copilot blijft jouw data binnen de grenzen van jouw eigen organisatie en wordt niet met anderen gedeeld.
Ethische kwesties
AI-gebruik roept prangende ethische vragen op. Gaat AI mijn werk overnemen? Is mijn intellectueel eigendom veilig? Wordt het copyright in acht genomen? Deze zorgen gelden vooral voor GenAI-tools zoals Copilot. En het zijn vooral kenniswerkers met repetitieve administratieve taken die zich daar zorgen over maken, zoals HR-, communicatie en contact center-medewerkers. Het is opvallend dat sommige organisaties vanwege hun ethische zorgen geen AI-frontrunner willen zijn. Zij wachten liever af totdat anderen tegen ethische vraagstukken aanlopen en daar antwoorden op vinden. Tegelijkertijd willen ze ook niet te lang wachten met AI, want dan lopen ze een onoverbrugbare achterstand op. Traditionele AI roept op zijn beurt nog bredere, maatschappelijke vragen op. Zo wordt in de G7 al nagedacht hoe AI de mensheid in de toekomst gaat beïnvloeden en filosofeert de schrijver Yuval Noah Harari over manieren waarop de technologie onze samenleving zal ondermijnen. Geen gekke gedachten, want de kans bestaat dat AI over enkele jaren intelligenter is dan de mens.
Hoe voorkom je problemen?
Stel standaarden of richtlijnen voor datagebruik op en zorg dat je de toegang en autorisatie goed geregeld hebt. Daarnaast is het belangrijk om de data governance op orde te hebben. Dat zijn belangrijke voorwaarden voor veilig AI-datagebruik. Ook een proactieve houding helpt. Faciliteer medewerkers bijvoorbeeld door ze bruikbare, veilige AI-tools te bieden zoals Microsoft Copilot. Zorg dat ze goed met AI-oplossingen kunnen werken, door ze te trainen. Dat kan je bijvoorbeeld doen door een competence center op te zetten. Medewerkers met de juiste kennis en skills, zullen eerder de aangeboden tools gebruiken. Zo voorkom je dat ze hun toevlucht zoeken tot schaduw IT en beperk je de bijbehorende privacy-risico’s. Ook organisatorisch kun je het nodige doen om de privacyrisico’s te minimaliseren. Betrek vooral HR en de Raad van Bestuur bij de AI-uitrol. Zo kan je in een vroeg stadium extra beveiligingsmaatregelen en ethische standaarden voor datagebruik inbouwen. Laat AI-tools en de bijbehorende policy ook verifiëren door de OndernemingsRaad en de Chief Information Security Officer (CISO). Zo ondervang je toekomstige ethische kwesties en problemen met wet- en regelgeving.
Het voordeel van Copilot
GenAI-tools als Copilot brengen minder privacy- en ethische risico’s met zich mee – de gebruikte AI-data blijft immers binnen de eigen omgeving. Wel dien je de autorisatie goed te regelen. Als een medewerker toegang heeft tot bepaalde gegevens, heeft zijn of haar Copilot dat ook. Kijk voordat je start met Copilot ook kritisch naar de datakwaliteit. Als je toch de data governance aanpakt, kan je de datakwaliteit meteen meenemen. Leg AI-gerelateerde vragen ook, net als bij niet-GenAI, eerst voor aan HR en de OR. Dat levert in eerste instantie misschien wat vertraging op, maar betaalt zich later terug in een snellere AI-adoptie, betere compliance en minder toekomstige ethische en privacy problemen. HR kan bovendien compliancy-inzichten uit het AI-gebruik halen wanneer Copilot gekoppeld is aan Microsoft Viva. Wie houdt zich onbewust niet aan de ethische richtlijnen en welke afdeling mist bepaalde AI-skills? Dit helpt om gezamenlijk te groeien in het veilig in gebruik nemen van GenAI binnen jouw organisatie.
Hoe kan Microsoft helpen om privacygevoelige en ethische AI-kwesties voor jouw organisatie op te lossen? Het opstellen van AI-gebruikstandaarden is niet eenvoudig voor organisaties met weinig AI-ervaring. Daarom heeft Microsoft voor zichzelf en zijn klanten een ‘responsible AI’-standaard ontwikkeld op basis van de nieuwste ontwikkelingen en ervaringen bij klanten. Microsoft kan helpen bij het implementeren van deze GenAI-standaarden en externe regelgeving binnen jouw organisatie. Daarnaast kan Microsoft AI-gebruikers in contact brengen met ervaren partners die hierin verder kunnen adviseren.
Lees meer over Microsoft Copilot en responsible AI en start jouw AI-traject vandaag nog.