Copilot als veiliger alternatief voor ChatGPT

Cursor kreeg een vraag over de recente lancering van Microsoft Copilot op de TU/e. Een van onze lezers vroeg zich af waarom de universiteit deze tool aanbiedt, of ieders privacy wel veilig is en of de tool het geld waard is. Cursor besloot zich in deze kwestie te verdiepen. Spoiler alert: ja, je privacy is beschermd (dubbel zelfs, maar daarover later meer) en nee, het kost de universiteit geen extra geld.

door
foto Kenneth Cheung / iStock

De meesten van ons kennen ChatGPT inmiddels. Een AI-tool van het Amerikaanse bedrijf OpenAI. Vanaf de lancering werd er al druk ‘gespeeld’ met de tool. Dat spelen maakt hem eigenlijk ‘slimmer’, of ‘dommer’, net hoe je het wilt zien. Maar veel mensen realiseren zich niet dat wat ze in AI-chatbots stoppen meestal niet langer hun eigendom is. In ChatGPT kun je nu handmatig een instelling kiezen die voorkomt dat het systeem je invoer gebruikt voor trainingsdoeleinden. Maar dat is dus niet de standaard instelling.

De TU/e heeft onlangs Microsoft Copilot geïntroduceerd. Product owner Wybe Smits: “Wij zien de voordelen en potentie van generative AI. En Copilot is beschikbaar binnen onze licentie van Office 365, dus brengt geen extra kosten met zich mee.” TU/e-privacyfunctionaris Satwik Singh zegt: “De app biedt ‘commercial data protection’, wat positief is voor de gebruikers. Maar zoals bij elke nieuwe applicatie voeren wij een privacybeoordeling uit.”

Waaruit bestaat commercial data protection op de TU/e?

1. Microsoft kijkt niet mee bij de gegevens die via prompts worden ingevoerd.

2. De gegevens verlaten de TU/e-gebruikersacccount nooit.

3. De gegevens worden niet gebruikt voor de training van het model.

Dit zijn expliciete garanties van Microsoft.

Pas op voor Google Translate

Microsoft Copilot (intranetlink) heeft als standaardinstelling dat je gegevens niet worden gebruikt voor trainingsdoeleinden. Bovendien wordt je geschiedenis niet opgeslagen wanneer je de applicatie sluit. Als je denkt ‘ik ben niet zo dom  om gevoelige gegevens in ChatGPT in te voeren’: goed bezig. Maar wist je dat dit principe ook geldt voor apps als Google Translate?

Veel mensen stoppen gevoelige informatie in een vertaaltool om snel een vertaalde versie van hun tekst te krijgen. Stel je voor dat je daar een geheimhoudingsverklaring of een arbeidscontract in stopt. Dat brengt privacyfunctionaris Satwik Singh op het volgende punt: “Lees altijd de richtlijnen: als je een generatieve AI-tool zoals ChatGPT/Copilot gebruikt, mag je geen persoonlijke of gevoelige gegevens invoeren. Dat is bescherming nummer één. In het geval van Microsoft Copilot is er een extra bescherming, beveiliging nummer twee: de manier waarop Microsoft met je gegevens omgaat zoals hierboven beschreven. Dus ook als je een fout maakt, ben je nog steeds beschermd.”

Singh: “Privacy krijgt altijd onze volledige aandacht bij het introduceren van apps omdat big tech niet altijd ons privacybelang voorop heeft bij het ontwerpen van de tools. Maar in het geval van Microsoft Copilot zagen we een app die voldoet aan privacy by default en privacy by design. Daar werden we blij van.”

Voormalig BingChat

Het kan zijn dat je al eerder gebruik hebt gemaakt van Microsoft Copilot. “Vroeger heette het namelijk ‘Bing Chat Enterprise’”, vertelt Smits.

De Cursor-lezer die de vraag over Copilot instuurde, was ook benieuwd of de universiteit zomaar alles beschikbaar maakt wat Microsoft lanceert. Het antwoord is nee. “Ook als het in onze licentie zit, blijven we kritisch. Er moet een zakelijk voordeel zijn, aangezien elke lancering in de organisatie ons ook tijd en energie kost.”

Hij geeft een voorbeeld van een Microsoft-app die de TU/e niet gelanceerd heeft: “Microsoft Places bijvoorbeeld. Die tool is beoordeeld, maar niet geschikt bevonden omdat hij te veel overlap heeft met Planon.”

De privacyvereisten worden overigens onafhankelijk van de zakelijke vereisten beoordeeld, voegt Singh toe. “Het advies om een tool te gebruiken wordt pas gegeven na een strenge test. In het geval van Microsoft Copilot werd er pas groen licht gegeven nadat bevestigd was dat de optie commercial data protection inderdaad technisch ook werkte voor alle gebruikers.”

Onderzoekstoepassing

Wil de TU/e met de release van Microsoft Copilot dat we ChatGPT of vergelijkbare tools niet meer gebruiken? Smits: “Nee, dat is niet het geval. Bij OpenAI hebben we geen contract en daardoor ligt de verantwoordelijkheid bij de gebruiker. Bij Microsoft hebben we de gebruikersbescherming goed geregeld, dus daarom heeft Copilot wel de voorkeur. Maar ik kan me voorstellen dat sommige onderzoeksprojecten OpenAI nodig hebben voor geavanceerde toepassingen. Microsoft Copilot is meer voor de gemiddelde gebruiker. Gevorderde gebruikers en onderzoekers willen misschien liever iets op maat bouwen in Azure.”

Pubquiz

Singh: “Zoals eerder benoemd heeft de TU/e al privacy- en databescherming voor gebruikers van generative AI. In die richtlijn wordt specifiek vermeld dat wanneer je een tool als Copilot gebruikt, je geen persoonlijke of gevoelige gegevens in de prompts mag zetten.” Hij grijnst. “En je wordt geacht de privacyrichtlijnen te lezen die ze aan de TU/e hebben vrijgegeven voordat je de software gebruikt.” De journalist grijnst teru: "Ik neem aan dat niet alle mensen die lezen."

Singh knikt. “Wij willen de kennis over deze onderwerpen graag op een leuke manier vergroten en daarom organiseren wij op 27 mei een Privacy en Security Pubquiz bij Hubble.” Deelnemers kunnen zich aanmelden via deze link (intranetlink).

Deel dit artikel