De AI Liability Directive, ofwel de Richtlijn AI-aansprakelijkheid, is een recent voorstel binnen de Europese Unie gericht op het reguleren van aansprakelijkheid voor schade veroorzaakt door AI-systemen. Dit voorstel, een aanvulling op de AI Act, introduceert nieuwe regels omtrent bewijslast en biedt slachtoffers van AI-gerelateerde schade extra bescherming. Deze richtlijn beoogt harmonisatie binnen de EU en heeft verstrekkende gevolgen voor zowel jou als aanbieder van AI-systemen als voor degenen die schade ondervinden door deze technologie.

Aanbieder van AI-systemen

Onder aanbieders wordt verstaan een brede categorie van entiteiten die betrokken zijn bij het aanbieden of inzetten van AI-systemen, waaronder fabrikanten en ontwikkelaars, distributeurs en leveranciers, dienstverleners en in sommige gevallen professionele gebruikers van AI-systemen. Deze richtlijn beoogt de aansprakelijkheid voor schade veroorzaakt door AI-systemen te verduidelijken en verantwoorde inzet te waarborgen.

Naast nieuwe Richtlijn AI-aansprakelijkheid ook AI Act

De AI Act, op 21 mei 2024 door de EU aangenomen, is ontworpen om een veilige en verantwoorde toepassing van AI-systemen te bevorderen en past in de trend van eerdere Europese regelgeving. De AI Act richt zich op alle AI-systemen die invloed hebben op mensen in de EU, wat inhoudt dat je als ondernemer wereldwijd aan deze regels moet voldoen als jouw AI-systemen gebruikt worden door, of impact hebben op, EU-burgers. 

Meer informatie AI Act

Achtergrond en context Richtlijn AI-aansprakelijkheid

De AI-Richtlijn is ingericht als zogenaamde compliance wetgeving. Dit betekent dat de richtlijn voornamelijk verplichtingen oplegt op het gebied van transparantie en veiligheid aan jou als aanbieder, importeur, distributeur of exploitant van AI-systemen.

Deze richtlijn is bedoeld om de risico’s die AI-systemen met zich meebrengen te minimaliseren en de rechten van betrokkenen te beschermen. Bij het niet naleven van deze verplichtingen kunnen toezichthoudende autoriteiten behoorlijke sancties opleggen.

De Richtlijn AI-aansprakelijkheid

De Richtlijn AI-aansprakelijkheid richt zich op niet-contractuele civielrechtelijke vorderingen tot vergoeding van schade veroorzaakt door AI-systemen. Met andere woorden: op vorderingen op basis van een onrechtmatige daad. Dit betekent dat de richtlijn van toepassing is in situaties waarin een betrokkene schade lijdt door het gebruik van AI zonder dat er een contractuele verhouding bestaat tussen jou als aanbieder en de betrokkene. Het doel is om uniforme regels te bieden over de bewijslast voor betrokkenen die schade ondervinden van AI-systemen.

Uniforme regels en harmonisatie

De richtlijn beoogt niet om de algemene aspecten van het aansprakelijkheidsrecht van lidstaten te regelen, maar richt zich specifiek op de bewijslast bij schade door het gebruik van AI. Dit zorgt voor een bepaalde mate van harmonisatie binnen de EU. Dat is belangrijk omdat het gebruik van AI vaak de landelijke grenzen overschrijdt. Lidstaten zijn verplicht om de richtlijn om te zetten in nationale wetgeving, maar ze mogen deze aanpassen aan hun eigen juridische wensen, zolang de basisprincipes overeind blijven. Dit is een tijdrovend proces en lidstaten hebben enige vrijheid om de richtlijn aan te passen aan hun nationale context. Desondanks moeten de kernprincipes van de richtlijn behouden blijven, wat zorgt voor een zekere mate van uniforme bescherming binnen de EU.

Omkering bewijslast

Een belangrijk aspect van de richtlijn is de omkering van de bewijslast. Normaal gesproken moet de partij die schade claimt, bewijzen dat de schade is veroorzaakt door de andere partij. Bij AI-gerelateerde schade is dit vaak moeilijk omdat de werking van AI-systemen complex en niet altijd transparant is voor de gemiddelde gebruiker. Dit wordt ook wel de 'Black Box' problematiek genoemd. De richtlijn stelt dat zodra een betrokkene aannemelijk kan maken dat de schade is veroorzaakt door een AI-systeem, jij als aanbieder moet bewijzen dat dit niet het geval is. In het aansprakelijkheidsrecht bestaat dit principe al langer en wordt het de omkeringsregel genoemd.

AI-aansprakelijkheidsrichtlijn verplicht om zorgvuldig te zijn

Als je AI-systemen aanbiedt die gebruikt worden in veiligheidscomponenten van gereguleerde producten, geldt dat je zorgvuldig moet handelen. Als je niet volledig voldoet aan de AI Act, wordt dit gezien als onzorgvuldig handelen. Dit betekent dat je een zware verantwoordelijkheid hebt om te bewijzen dat je aan alle verplichtingen voldoet, wat in de praktijk een uitdaging kan zijn.

Recht op bewijsmateriaal

Naast de omkering van de bewijslast bevat de richtlijn ook bepalingen die het mogelijk maken voor betrokkenen om bewijsmateriaal op te vragen bij jou als aanbieder. Dit kan alleen als de betrokkene een geloofwaardige claim kan overleggen. Dit recht op bewijsmateriaal is bedoeld om slachtoffers te helpen hun zaak te onderbouwen, vooral in situaties waarin zij zelf niet de benodigde informatie hebben om te bewijzen dat de AI-systemen fouten hebben gemaakt.

Reacties vanuit het bedrijfsleven op AI-aansprakelijkheidsrichtlijn

Het bedrijfsleven heeft gemengde reacties op de conceptrichtlijn. Er is bezorgdheid dat zelfs minimale overtredingen van de AI-Richtlijn kunnen leiden tot aansprakelijkheid. Bedrijven vrezen een toename van het aantal claims en zien het als een uitdaging om volledig te voldoen aan de uitgebreide verplichtingen die de AI-Richtlijn en de richtlijn met zich meebrengen.

AI-aansprakelijkheidsrichtlijn: veiliger en transparanter gebruik van AI binnen de EU

De AI Liability Directive, of wel AI-aansprakelijkheidsrichtlijn, is een belangrijke stap richting het reguleren van aansprakelijkheid voor schade veroorzaakt door AI-systemen binnen de EU. De AI-aansprakelijkheidsrichtlijn introduceert een omkering van de bewijslast en het recht op bewijsmateriaal, wat de positie van slachtoffers versterkt. Hoewel het bedrijfsleven zorgen heeft over de praktische implicaties, is de richtlijn bedoeld om een balans te vinden tussen innovatie en bescherming van rechten. De komende tijd zal verdere discussie en aanpassing nodig zijn voordat de richtlijn volledig is geïmplementeerd, maar het zet een belangrijke stap richting een veiliger en transparanter gebruik van AI binnen de EU.

Meer weten over de AI-aansprakelijkheidsrichtlijn?

De komende tijd zullen we de ontwikkelingen over de AI-aansprakelijkheidsrichtlijn op de voet volgen. Mocht je vragen hebben over de richtlijn of de AI Act, en wat het voor jou als ondernemer betekent? Neem gerust contact op met mij of een van de overige ondernemingsrecht advocaten.