De generatieve tekst-chatbot van OpenAI, ChatGPT, heeft de afgelopen zes maanden enorme populariteit verworven, maar er groeien zorgen over de risico’s van het systeem dat getraind wordt op persoonlijke gegevens die van het web zijn verzameld. Gegevensregulatoren in verschillende landen onderzoeken nu hoe OpenAI de gegevens heeft verzameld die het gebruikt om zijn grote taalmodellen te trainen, de nauwkeurigheid van de antwoorden die het biedt over mensen, en andere juridische zorgen over het gebruik van zijn generatieve tekstsystemen.
In Europa vereisen de GDPR-wetten dat bedrijven en organisaties wettige redenen aantonen voor het hanteren van persoonlijke informatie, individuen toegang geven tot informatie over hen, op de hoogte worden gebracht van hoe hun informatie wordt gebruikt, en eisen dat fouten worden rechtgezet. Het gebruik van persoonlijke informatie van mensen in trainingsgegevens was een vroeg aandachtsgebied voor EU-regulatoren.
Terwijl mensen hebben geëxperimenteerd met ChatGPT, zijn ze een reeks potentiële problemen tegengekomen. OpenAI waarschuwt dat de chatbot mogelijk onnauwkeurige informatie verstrekt, en mensen hebben ontdekt dat het banen en hobby’s verzint, valse krantenartikelen genereert waarvan zelfs de vermeende menselijke auteurs zich afvroegen of ze echt waren. ChatGPT genereerde ook onjuiste uitspraken over individuen, wat tot lasterlijke rechtszaken heeft geleid.
Bedrijven als Samsung hebben werknemers verboden generatieve AI-tools te gebruiken, deels vanwege zorgen over gegevensopslag op externe servers en het risico van het openbaar maken van bedrijfsgeheimen aan andere gebruikers. Als reactie op het toezicht heeft OpenAI tools en processen geïntroduceerd waarmee mensen meer controle hebben over hun gegevens.
OpenAI heeft nu een formulier voor persoonlijke gegevensverwijdering geïntroduceerd, voornamelijk voor het verzoek om informatie te verwijderen uit de antwoorden die ChatGPT aan gebruikers geeft, in plaats van uit zijn trainingsgegevens. OpenAI heeft ook een nieuwe instelling geïntroduceerd waarmee iedereen kan voorkomen dat zijn chatgeschiedenis in de toekomst als trainingsgegevens voor grote taalmodellen wordt gebruikt. Dit betekent dat alle gegevens die u invoert in ChatGPT, zoals informatie over uzelf, uw leven en uw werk, niet opnieuw worden opgehaald in toekomstige iteraties van de grote taalmodellen van OpenAI.
Sommige experts geloven echter dat de veranderingen van OpenAI alleen “het laaghangend fruit” aanpakken als het gaat om gegevensbescherming. Daniel Leufer, een senior beleidsanalist bij de digitale rechten non-profit Access Now, zegt dat het complexere, systemische probleem van hoe de gegevens van mensen werden gebruikt om deze modellen te trainen niet adequaat is aangepakt. “Individuen hebben ook het recht om toegang te krijgen tot, correctie te eisen van, beperking van gebruik te vragen, persoonlijke informatie te laten verwijderen of over te dragen die mogelijk is opgenomen in onze trainingsinformatie”, zegt de helpcentrumpagina van OpenAI. Mensen die hun gegevens al hebben opgevraagd bij OpenAI zijn echter niet onder de indruk van de reacties van het bedrijf, en de gegevensregulator van Italië zegt dat OpenAI beweert dat het op dit moment “technisch onmogelijk” is om onnauwkeurigheden te corrigeren.