OpenAI’s ChatGPT-4 is slechts zes maanden na de release van zijn voorganger gelanceerd en wordt geprezen als creatiever en samenwerkender dan zijn vorige versie. Met zijn vermogen om samenhangende en vloeiende tekst te genereren over een breed scala aan onderwerpen die niet te onderscheiden lijkt van tekst geschreven door een mens, heeft het de potentie om de juridische sector te revolutioneren. De beperkingen en risico’s van ChatGPT-4 kunnen echter niet over het hoofd worden gezien.
ChatGPT-4 is relatief eenvoudig te gebruiken: alles wat u hoeft te doen is uw verzoek typen op de ChatGPT-website en het genereert een antwoord. Deze gebruiksvriendelijkheid en open toegang hebben de juridische sector ertoe aangezet om na te denken over wat het betekent voor advocaten en hoe zij over deze technologie moeten nadenken. Hoewel de voordelen duidelijk zijn, zijn er ook risico’s en valkuilen om te overwegen.
GPT staat voor generatieve vooraf getrainde transformer, wat een taalmodel is dat is getraind op een groot corpus van data. Het model analyseert tekst en woorden, waarbij elk woord een score heeft. Vervolgens kiest het een woord met een hoge score en gaat door naar het volgende woord, waarbij elke keuze wordt bepaald door complexe algoritmen en enorme hoeveelheden data, waardoor het tekst kan produceren die coherent en accuraat is (meestal). In tegenstelling tot traditionele AI-systemen die patronen herkennen en voorspellingen doen, creëert generatieve AI nieuwe inhoud in de vorm van afbeeldingen, tekst, audio en meer.
ChatGPT-4 is getraind op ongeveer 45 terabyte aan tekstgegevens en meer dan 300 miljard woorden verkregen uit boeken, webteksten, Wikipedia, artikelen en andere stukken geschreven op het internet. Bovendien is het getraind op voorbeelden van heen-en-weer menselijke gesprekken, wat helpt om zijn dialoog veel menselijker te laten klinken. Het kan niet alleen putten uit enorme hoeveelheden vocabulaire en informatie, maar begrijpt ook woorden in context, wat helpt om spraakpatronen na te bootsen terwijl het een encyclopedische kennis uitstuurt.
De juridische sector worstelt met wat ChatGPT-4 betekent voor advocaten, waarbij sommige professionele dienstverleners al generatieve AI-tools hebben uitgerold die specifiek zijn gebouwd voor juridisch en zakelijk werk. Bijvoorbeeld, Harvey, dat wordt ondersteund door het OpenAI Startup Fund en gebouwd is op OpenAI- en Chat GPT-technologie, wordt over de hele wereld aangenomen door enkele van de grootste professionele dienstverleners. Het platform maakt gebruik van natuurlijke taalverwerking, machine learning en gegevensanalyse om inzichten en aanbevelingen te genereren op basis van grote hoeveelheden gegevens, waardoor professionals rijkere informatie krijgen om sneller oplossingen te identificeren.
De technologie is echter nog in haar kinderschoenen en de resultaten die worden verkregen uit ChatGPT zijn vaak bezaaid met fouten en in sommige gevallen regelrechte onwaarheden. In situaties waarin het lijkt alsof het dingen verzint en dat doet met volledige en absolute zelfverzekerdheid, noemt de technologiesector dit een “hallucinatie”. Professionele aansprakelijkheidsverzekeraars waarschuwen advocaten voor de professionele verantwoordelijkheid en risicobeheersing implicaties van de technologie.
Ondanks deze risico’s zoeken advocatenkantoren en bedrijfsjuristen naar manieren om de technologie in hun werk te gebruiken. Voor zaken als contracten, beleidsregels en andere juridische documenten die normatief zijn, kunnen de capaciteiten van generatieve AI bij het verzamelen en synthetiseren van informatie veel werk verzetten. Daarom moet de juridische sector op zoek gaan naar opkomende technologieën, zoals ChatGPT, die dergelijke laaghangende vruchten kunnen aanpakken, waarbij het directe voordeel potentiële kostenbesparingen zijn voor advocatenkantoren en hun cliënten.
Hoewel de voordelen duidelijk zijn, heeft het gebrek aan juridische statuten en regelgeving die bindend zijn in de Verenigde Staten toezichthouders doen onderzoeken naar de potentie voor algoritmische vooringenomenheid, verspreiding van desinformatie op schaal en schending van het auteursrecht. Het Witte Huis Office of Science and Technology Policy heeft een “Blueprint for an AI Bill of Rights” gelanceerd om de ontwerp-, gebruik- en implementatie van geautomatiseerde systemen te begeleiden om het Amerikaanse publiek te beschermen in het tijdperk van kunstmatige intelligentie. Het blauwdruk identificeert vijf principes die de ontwerp-, gebruik- en implementatie van geautomatiseerde systemen moeten leiden, waaronder veilige en effectieve systemen, bescherming tegen algoritmische discriminatie, gegevensprivacy, kennisgeving en uitleg, en menselijke alternatieven, overweging en terugval.
Ongeveer 60 landen richten zich ook op AI-initiatieven, waarbij de Artificial Intelligence Act van de Europese Unie gepland staat voor 2024. De wet heeft tot doel een gemeenschappelijk regelgevend en juridisch kader voor AI in te voeren in alle sectoren (behalve militair). Experts die de ontwikkeling van dergelijke wetten volgen, vragen terecht zich af of de aanpak van de EU voor AI wereldwijd breed zal worden overgenomen, vergelijkbaar met hoe veel van ’s werelds websites de gegevensprivacyvereisten van de EU hebben overgenomen om gebruikers toestemming te vragen voor de verwerking van persoonsgegevens en het gebruik van cookies.
Terwijl overheden over de hele wereld proberen een regelgevende regeling op te stellen die gelijke tred houdt met de AI-technologie, moeten advocaten die deze technologie willen implementeren in hun werkstromen ook de bijbehorende risico’s beperken. Hoewel ChatGPT-4 en andere generatieve AI-tools veel werk kunnen verrichten voor advocatenkantoren en hun cliënten, hebben ze beperkingen en moeten de risico’s van het gebruik ervan zorgvuldig worden overwogen.