Bedrijven die hun processen willen optimaliseren, beter geïnformeerde beslissingen willen nemen of innovatieve bedrijfsmodellen willen ontwikkelen, vertrouwen steeds vaker op AI-systemen. De technologische mogelijkheden gaan echter ook gepaard met aanzienlijke juridische uitdagingen, met name op het gebied van garantiewetgeving. Iedereen die een AI-systeem voor zijn bedrijf wil aanschaffen of zijn eigen neurale netwerk wil trainen op platforms zoals Azure of AWS moet het juridische kader zorgvuldig onderzoeken.
De bijzondere aard van AI-systemen in het Duitse garantierecht
Het Duitse garantierecht is fundamenteel gebaseerd op de bepalingen van de wet op de verkoop of overeenkomsten voor werk en arbeid. De belangrijkste vraag hier is of de geleverde goederen of het gemaakte werk vrij zijn van gebreken. Dit is relatief eenvoudig te beoordelen voor klassieke producten. AI-systemen vormen echter een categorie op zich. Ze worden gekenmerkt door het feit dat ze dynamisch zijn en voortdurend evolueren door nieuwe gegevens te verwerken. Dit vermogen om te leren kan leiden tot onverwacht gedrag en maakt de beoordeling van een defect veel complexer.
Een aankoop- of werkcontract heeft echter alleen zin als er een bijna voltooide oplossing wordt aangeschaft die zonder grote aanpassingen of voortdurende wijzigingen in het bedrijf kan worden geïntegreerd. Dit moet worden onderscheiden van het geval waarin een bedrijf een neuraal netwerk wil gebruiken en het continu wil trainen om de resultaten te integreren in operationele processen met behulp van eigen scripts. In dit geval is de focus van de dienst niet de levering van een eindproduct, maar eerder de training en voortdurende kalibratie van het netwerk. Dit voortdurende maatwerk vormt een dienst, waarvan de juridische beoordeling verschilt van die van een contract voor werk en diensten.
In het geval van gebrekkige diensten zijn er verschillende mogelijkheden voor schadeclaims. In overeenstemming met § 280 (1) BGB kan de schuldeiser schadevergoeding eisen als de schuldenaar een verplichting die voortvloeit uit de contractuele relatie heeft geschonden en verantwoordelijk is voor dit plichtsverzuim. Bovendien kan volgens de voorwaarden van § 281 BGB schadevergoeding worden geëist in plaats van nakoming als de schuldenaar een opeisbare prestatie niet of niet zoals verschuldigd nakomt en een redelijke termijn voor latere nakoming zonder succes is verstreken. Als de verplichting tot nakoming is uitgesloten in overeenstemming met artikel 275 BGB, is schadevergoeding mogelijk in overeenstemming met artikel 283 BGB. Bovendien kan de schuldeiser een vergoeding eisen voor nutteloze uitgaven die hij heeft gedaan in afwachting van de ontvangst van de prestatie en die door de gebrekkige prestatie nutteloos zijn geworden in overeenstemming met § 284 BGB.
Integratie van AI in bestaande systemen
Veel bedrijven kopen AI-systemen als kant-en-klare oplossingen die moeten worden geïntegreerd in het bestaande IT-landschap. Dit roept niet alleen technische maar ook juridische vragen op. Een centraal aspect is de definitie van de aard van het AI-systeem. Dit gaat over welke specifieke eisen worden gesteld aan de prestaties van de AI. Hoe nauwkeurig moeten voorspellingen zijn? Hoe snel moet het systeem reageren? Dergelijke vragen moeten duidelijk worden geregeld in het contract om later geschillen te voorkomen.
De omgeving waarin het AI-systeem wordt gebruikt, speelt ook een doorslaggevende rol. De prestaties van een AI kunnen sterk afhangen van de vraag of het systeem draait op geschikte hardware en werkt met compatibele software. Als dergelijke vereisten niet duidelijk zijn gedefinieerd, bestaat het risico dat de verantwoordelijkheid voor mogelijke functionele problemen onduidelijk blijft. Bedrijven moeten ervoor zorgen dat er in het contract rekening wordt gehouden met dergelijke aspecten.
Een ander belangrijk punt betreft de gegevens die het AI-systeem moet verwerken. Het is vaak nodig om de gegevens voor te bereiden voordat ze worden gebruikt, omdat ongestructureerde of onjuiste gegevens de prestaties van de AI aanzienlijk kunnen schaden. Het is raadzaam om contractueel vast te leggen wie verantwoordelijk is voor de voorbereiding van de gegevens en aan welke kwaliteitsnormen moet worden voldaan.
Neurale netwerken trainen met je eigen gegevens
Iedereen die besluit zijn eigen neurale netwerk te trainen op platforms zoals Azure of AWS wordt geconfronteerd met nog meer juridische uitdagingen. Een belangrijke vraag betreft de verantwoordelijkheid voor de trainingsgegevens. Als deze onvolledig of van mindere kwaliteit zijn, kan dit de prestaties van het uiteindelijke model aanzienlijk beïnvloeden. Bedrijven moeten daarom duidelijke afspraken maken over hoe de gegevens worden voorbereid en aangeleverd.
Een andere belangrijke kwestie is het eigendom van de resultaten. Bij het gebruik van cloudplatforms is het vaak niet duidelijk geregeld wie de rechten heeft op de getrainde modellen of de gebruikte gegevens. Aanbieders zoals AWS behouden zich soms het recht voor om de gegevens te hergebruiken. Dit kan vooral problematisch zijn als het gaat om gevoelige of concurrentierelevante informatie. Duidelijke contractuele regels zijn hier essentieel.
De vraag rijst ook hoe fouten in het trainingsproces of defecten in het afgewerkte model juridisch beoordeeld moeten worden. Aangezien het succes van het trainingsproces van veel factoren afhangt, moet het contract duidelijke garanties bevatten over welke resultaten kunnen worden verwacht en wie aansprakelijk is in het geval van afwijkingen. Voor diensten zoals neurale netwerktraining kunnen de bovengenoemde bepalingen van sectie 280, 281, 283 en 284 van het Duitse Burgerlijk Wetboek (BGB) relevant zijn om juridische claims af te dwingen in het geval van slechte prestaties.
AI in inkoop: zo eenvoudig is het niet
Wees duidelijk over wat je als bedrijf wilt aanschaffen: Moet het een standalone oplossing zijn die “out of the box” wordt gekocht – of gaat het meer om training op bestaande en eventueel aangeschafte infrastructuur (bijvoorbeeld van AWS)? En als er gebruik wordt gemaakt van training: Heb je contractueel vastgelegd dat er continu gekalibreerd moet worden?
Daarentegen is de leverancier die een oplossing wil ontwikkelen of verkopen anders: vrijwel elke IT-dienstverlener die ik ken, wil graag de dienst leveren (of soms een huuroplossing). Dit is echter niet altijd het ideale scenario en vooral bij AI-systemen, als “alleen” de training verschuldigd is, wordt het lastig als er disfunctioneel gedrag optreedt: Wanneer is training technisch correct en zijn foutieve resultaten echt onvoorspelbaar? Bovendien zijn er tal van verplichtingen om de klant te instrueren, die idealiter al in het contract zijn opgenomen. Geschillen in de toekomst kunnen ondankbaar en erg duur zijn.
Gegevensbescherming en aansprakelijkheid
Een ander belangrijk aspect bij het gebruik van AI-systemen is de omgang met gegevens. Vooral wanneer persoonlijke gegevens worden verwerkt, moeten bedrijven ervoor zorgen dat aan alle wettelijke vereisten wordt voldaan, in het bijzonder de General Data Protection Regulation (GDPR). Dit geldt niet alleen voor het verkrijgen van toestemming en de doelbinding van gegevensverwerking, maar ook voor de vraag hoe lang de gegevens worden opgeslagen en wie er toegang toe heeft.
Tegelijkertijd moeten bedrijven duidelijk maken hoe aansprakelijkheid geregeld is als de AI verkeerde beslissingen neemt. Dergelijke fouten kunnen verstrekkende gevolgen hebben, bijvoorbeeld als ze leiden tot onjuiste diagnoses of onnauwkeurige financiële prognoses. Het is belangrijk om in het contract te specificeren wie aansprakelijk is voor dergelijke fouten en wat de gevolgen zijn.

Het is enigszins verrassend als je naar de juridische literatuur kijkt: De gebrekkigheid van AI-systemen komt op dit moment eigenlijk nauwelijks aan bod, en als het al aan de orde komt, dan in essays die al jaren oud zijn. Momenteel wordt niet onderkend dat de prestatie die in de praktijk daadwerkelijk plaatsvindt, moet worden gekwalificeerd als een dienst in plaats van een koop-/aannemingsovereenkomst – met aanzienlijke gevolgen voor de op te stellen contracten!
Conclusie
De implementatie van AI-systemen biedt grote kansen, maar brengt ook aanzienlijke juridische risico’s met zich mee. Bedrijven die investeren in AI moeten ervoor zorgen dat alle relevante aspecten – van de aard van het systeem en de integratie in het IT-landschap tot het gebruik en de verwerking van gegevens – duidelijk worden geregeld in het contract. Dit is de enige manier om potentiële conflicten te vermijden en de prestaties van de systemen te garanderen. Gedegen juridisch advies is essentieel om de verschillende juridische uitdagingen te overwinnen en het potentieel van AI-systemen volledig te benutten.
- Informeel bankieren onder juridische druk: Hawala-systemen en de complexe juridische beoordeling van strafbaarheid en vermogensontneming in Duitsland - maart 23, 2025
- Open source software in de Duitse wet - maart 23, 2025
- Tabaksaccijns en shisha-tabak in Duitsland: strafrechtelijke risico’s voor winkeliers en bars - maart 8, 2025