Zo voorkom je dat Antrophic's Claude traint op jouw data

zondag, 31 augustus 2025 (12:15) - GadgetGear.nl

In dit artikel:

Anthropic, maker van de AI-assistent Claude, start een nieuw initiatief om modellen te trainen met gebruikersinput. Gebruikers krijgen via een pop-up gevraagd of hun chats mogen worden gebruikt om Claude te verbeteren, maar die toestemming zit vervlochten met het accepteren van nieuwe algemene voorwaarden. Als je dat accepteren uitstelt, wordt delen van je data automatisch weer aangezet en moet je dit handmatig uitschakelen via Instellingen → Privacy → Help improve Claude. In de aangescherpte voorwaarden staat ook dat gebruikersdata tot vijf jaar bewaard kan worden. Standaard zijn alleen de speciale accounttypen Claude for Work, Claude Gov en Claude for Education uitgesloten van die dataverzameling. Let daarom op wat je deelt (bedrijfsgeheimen, persoonsgegevens kunnen zo algemene kennis worden) en controleer de privacy-instellingen of gebruik een uitgesloten account als dat nodig is.