Stel: een gebruiker maakt gebruik van een AI-assistent (zoals ChatGPT) om een vlucht te boeken. De AI handelt op basis van de informatie die door de gebruiker is verstrekt, maar er sluipt een fout in: bijvoorbeeld een verkeerd gespelde naam of een fout in de vertrekdatum. De vraag is dan: wie is aansprakelijk voor de schade die voortvloeit uit die fout?
Dit is een vraag die in toenemende mate relevant is door de opkomst van AI-gestuurde handling agents.
Wat het niet is: vertegenwoordiging
De eerste gedachte is dat de handling agent een vertegenwoordiger is van de persoon achter het toetsenbord. Helaas gaat deze vlieger niet op. De vertegenwoordiger moet een persoon zijn. Dat kan ook een rechtspersoon zijn, maar AI is geen persoon. En aanknopen bij het bedrijf achter de handling agent is ook geen optie.
Wat het wel is: de bode
De handling agent zal als een bode van de persoon achter het toetsenbord worden gezien. De bode kent een eigen wettelijke regeling in artikel 3:37 lid 4 BW, ook al wordt die bepaling niet al te vaak toegepast in de rechtspraak. Artikel 3:37 lid 4 BW luidt als volgt:
“Wanneer een door de afzender daartoe aangewezen persoon of middel een tot een ander gerichte verklaring onjuist heeft overgebracht, geldt het ter kennis van de ontvanger gekomene als de verklaring van de afzender, tenzij de gevolgde wijze van overbrenging door de ontvanger was bepaald.”
Deze bepaling is relevant in situaties waarin verklaringen tussen partijen niet of verkeerd aankomen. In dit geval wordt de handling agent beschouwd als verlengstuk van de gebruiker. De fout (bijvoorbeeld een verkeerd geboekt ticket) is dan te herleiden tot de wijze waarop de informatie door de gebruiker is ingevoerd of waarop de handling agent die informatie heeft geïnterpreteerd.
Verantwoordelijkheid en aansprakelijkheid handling agent
De kernvraag is: komt de fout voor rekening van de gebruiker, van de AI-dienstverlener (zoals OpenAI), of van een derde partij (zoals de reisorganisatie)?
Op basis van het huidige recht blijft de gebruiker in beginsel verantwoordelijk voor het verstrekken van correcte informatie. De handling agent is een hulpmiddel, geen zelfstandig handelingsbekwaam persoon. Indien de handling agent dus een fout maakt die voortvloeit uit onduidelijke of onvolledige input, ligt het risico in beginsel bij de gebruiker.
Anders wordt het als de handling agent zelfstandig handelt op basis van interne logica of gegenereerde suggesties zonder dat de gebruiker deze heeft kunnen controleren. In dat geval kan er discussie ontstaan over de vraag of sprake is van een toerekenbare fout van de aanbieder van de AI-dienst.
Artikel 3:37 lid 4 BW biedt een belangrijk aanknopingspunt bij het bepalen van de rechtsgeldigheid van verklaringen in een tijdperk van AI-gebruik. Bij gebruik van AI-diensten blijft de gebruiker in beginsel zelf verantwoordelijk voor controle en verificatie van de uitgaande verklaringen. Het risico van fouten ligt in beginsel bij de gebruiker, tenzij deze kan aantonen dat het foutief verzenden of niet bereiken buiten zijn risicosfeer lag.
In ieder geval zal artikel 3:37 lid 4 BW de komende jaren aan belangstelling gaan winnen. Controle blijft daarin koning, maar AI in het algemeen en handling agents in het bijzonder kunnen het leven vergemakkelijken en veraangenamen.
Heb je te maken met een handling agent die een boeking onjuist heeft verricht, neem dan contact op met de advocaten van fL advocaten of de juristen van facily LAW juristen.