LRZ E Zeitschrift Logo

LRZHeaderBogenRot
 

Zitiervorschlag: Lukas, LR 2021, S. 97, [●], www.lrz.legal/2021S97

Permanente Kurz-URL: LRZ.legal/2021S97

Industrie 4.0 war soeben wieder ein wichtiges Thema der - virtuellen - Hannover Messe im April 2021 und wird dort heute wie folgt charakterisiert: Mit der Industrie 4.0 werden Fertigungsanlagen, die Informationen mit Werkstücken teilen und bei Bedarf einen Techniker zu Hilfe rufen, zur Realität. Die maschinelle Produktion wird durch modernste Kommunikationstechnik zu einem selbstlernenden System vernetzt - es entsteht eine smarte Fabrik.

1. Einführung

 

Grundlage für diese moderne industrielle Revolution ist das Internet der Dinge (IoT), das einen kontinuierlichen Datenaustausch zwischen allen Beteiligten Einheiten ermöglicht - vom Produktionsroboter über die Lagerverwaltung bis hin zum Mikrochip. So werden alle Produktions- und Logistikprozesse miteinander verbunden.[1] Maschinen kommunizieren miteinander über Unternehmensgrenzen hinweg und schließen Verträge. Dieser Beitrag erläutert, welche rechtlichen Fragen dabei zu beachten sind, und schlägt Lösungen für die betriebliche Praxis vor.

 

2. Vertragsschluss

 

In der unternehmensübergreifend vernetzten Industrie 4.0 müssen Maschinen rechtlich wirksame Erklärungen austauschen und verbindliche Vereinbarungen treffen können. Dabei ist zu beachten, dass die programmtechnische Generierung dieser Erklärungen auf unterschiedlichen Technologien beruhen kann,[2] Hier ist vor allem die Unterscheidung von bloßer Automatik zur Autonomik relevant.

 

Seit langem sind Software-Automaten im Einsatz, um die Abgabe elektronischer Willenserklärungen zu vereinfachen, wobei die Erklärung anhand vorheriger Programmierung nach einer deterministischen „Wenn-Dann-Logik“ automatisch erzeugt und gegebenenfalls elektronisch übermittelt wird.[3]

 

Moderne Softwareagenten steuern sich dagegen mittels Künstlicher Intelligenz und Künstlicher Neuronaler Netze weitgehend selbst. Dabei treffen sie ihre Entscheidungen aufgrund ihrer selbstlernenden Charakteristik autonom. Ihr Handeln ist also nicht mehr starr festgelegt, sondern zeigt ein probabilistisches Verhalten. Das heißt, es ist weder im Voraus sicher prognostizierbar, noch im Nachhinein sicher nachweisbar, warum der Softwareagent gerade diese Erklärung abgegeben hat.[4]

 

2.1. Computer-Erklärung

 

Für die von Software-Agenten geschlossenen Verträge lassen sich zunächst die Grundsätze der Computererklärung heranziehen. So ist laut BGH der Inhalt eines unter Einsatz elektronischer Kommunikationsmittel über ein automatisiertes Buchungs- oder Bestellsystem an ein Unternehmen gerichteten Angebots und einer korrespondierenden Willenserklärung des Unternehmens nicht danach zu bestimmen, wie das automatisierte System das Angebot voraussichtlich deuten und verarbeiten wird. Maßgeblich ist vielmehr, wie der menschliche Adressat die jeweilige Erklärung nach Treu und Glauben und der Verkehrssitte verstehen darf.[5]

 

Die automatisierte Willenserklärung gilt als die Erklärung dessen, der die EDV-Anlage betreibt, da die Anlage selbst keinen eigenen Willen betätigt, sondern aufgrund ihrer Programmierung - zumindest mittelbar - den Willen des Anlagenbetreibers verlautbart.[6]

 

Für diese Konstruktion spricht, dass der Einsatz und die Konfiguration des Systems letztlich auf der freien Entscheidung des Betreibers beruhen, und der Rechtsverkehr häufig nicht erkennen kann, ob bzw. in welchem Maße die Willenserklärung – etwa eine Bestellung oder Auftragsbestätigung, die mit dem Namen eines Mitarbeiters unterzeichnet ist – tatsächlich manuell oder automatisiert erstellt wurde.[7] Hier geht es noch um technisch deterministische Programme, deren Verhalten der Betreiber als klare „Wenn-Dann-Befehlsfolgen“ festlegt. Deshalb kann der Rechtsverkehr aus dem Handeln der Maschinen auf den zugrundeliegenden Willen ihres Betreibers schließen.

 

Noch einfacher lässt sich die Maschinenerklärung handhaben, wenn man sämtliche essentialia negotii mit einem Rahmenvertrag im Vorhinein regelt. Die elektronische Maschinenerklärung stellt dann nur die aufschiebende Bedingung der Wirksamkeit für die im Vorhinein abgegebene Willenserklärung dar, ohne selbst einen weiteren Erklärungsinhalt zu haben.[8] Das betrifft aber eher Systeme mit einem vergleichsweise geringen Grad an Vernetzung und Autonomie.

 

Die o.a. Argumentation des BGH zur Maschinenerklärung lässt sich kaum durchhalten bei autonomen KI-Systemen und Algorithmen, deren Verhalten ab einem gewissen Komplexitätsgrad für den Betreiber ex ante nicht mehr vorhersehbar ist. Hier besteht wegen der „Autonomie“ des Systems nurmehr eine schwache Grundlage für die Vermutung, die Erklärung „des Systems“ beruhe auf einem entsprechenden konkreten Willen des Betreibers. Eine vollständige Zurechnung aller Erklärungen des Systems führt dann letztendlich zu einer rechtsgeschäftlichen Risikohaftung des Betreibers: Ihm würde das gesamte Erklärungsrisiko des Systems auferlegt, auch insoweit, als er das Verhalten nicht ex ante überblicken und kontrollieren kann.[9]

 

Zwar kennt das Recht eine Blanketterklärung und eine Generalvollmacht, doch setzen diese eine Vertrauensbasis voraus, die man einem Computer schwerlich zubilligen wird. Das recht gut beherrschbare Automatisierungsrisiko, das deterministischen Systemen innewohnt, wird hier zum Autonomierisiko für den Betreiber des Systems – und damit auch für den Rechtsverkehr. Denn die o.a. Grundsätze zur Computererklärung, die auf eine Arbeitsteilung durch konkrete Voreinstellungen des Betreibers abstellen und daraus einen generalisierenden Handlungswillen sowie ein generalisierendes Erklärungsbewußtsein ableiten, helfen mangels ausreichenden menschlichen Beitrags nicht mehr weiter.[10]

 

2.2. Boten

 

Lediglich automatisierte Systeme kann man als Boten ansehen. Eine Maschine kann dann eine vom Menschen gewollte Erklärung übermitteln und dabei wie ein menschlicher Bote verstanden werden. Sie gibt keine eigene Willenserklärung ab, sondern übermittelt nur einen fremden Willen, wobei die Erklärung dann auch gegenüber dem Menschen wirkt, von dem sie ausgegangen ist.[11]

 

Kann man aber ein autonom handelndes System als Boten betrachten, der die Willenserklärung des Betreibers nur übermittelt? Dagegen spricht, dass der Systeminhaber eine konkrete Erklärung gerade eben nicht abgibt, die dann vom System überbracht werden könnte. Vielmehr erzeugt das System selbsttätig die Erklärung,[12] und zwar auf eine Weise, die vom Geschäftsherrn nicht notwendig beeinflussbar ist, ja derer er sich im Einzelfall oft nicht einmal bewusst ist. In diesen Fällen kann nicht mehr von einem Mindestmaß an Erklärungsbewußtsein ausgegangen werden.[13] Denn wer nicht weiß, ob, wann, wie und mit welchem Inhalt sein System Willenserklärungen abgibt, hat in Bezug auf diese Erklärungen keinen Erklärungswillen und gibt damit keine Willenserklärung ab, die ein autonomes System als Bote übermitteln könnte.[14]

 

Geht man dogmatisch davon aus, dass der Bote zwingend eine Rechtspersönlichkeit besitzen muss, dann scheidet die Botenschaft ebenfalls aus.[15]

 

2.3. Stellvertretung

 

Im Fall von autonomen Systemen scheint die Stellvertretung nach §164 BGB eher weiterzuhelfen. Dann werden dem Betreiber eines autonomen Systems nur solche Erklärungen seines Softwareagenten zugerechnet, die dieser im Rahmen seiner Vertretungsmacht abgegeben hat.

 

Die Erteilung der Vertretungsmacht kann man in der Inbetriebnahme des autonomen Systems sehen. Dabei ist seinem Anwender bewusst, dass es Erklärungen abgeben könnte. Unbekannt ist ihm lediglich, welche konkrete Gestalt die Erklärung annehmen wird.[16] Innerhalb des Wertschöpfungsnetzwerks mag es sich empfehlen, vorher entsprechende vertragliche Vereinbarungen zu treffen, die den Einsatz des Softwareagenten den Vertragspartnern gegenüber offenlegen. Ohnehin wird der Softwareagent nicht unter eigenem Namen auftreten, sondern unter dem seines Prinzipals, sei es auf dessen Website, oder technisch auf Ebene definierter Kommunikationsprotokolle wie etwa für die Bestellung oder Abnahme von Waren. Der Softwareagent ist wie ein Wissensvertreter i.S.d. § 166 I BGB in die betriebliche Arbeitsorganisation seines Geschäftsherrn eingebettet und dazu berufen, als dessen Repräsentant gewisse Aufgaben in eigener Verantwortung durchzuführen. Er ist auch einem Angestellten im Laden oder Warenlager vergleichbar, der gemäß § 54 HGB zu den dort üblichen Verkäufen und Inempfangnahmen als ermächtigt gilt.

 

Es bleibt dann die Rechtsfähigkeit des autonomen Systems, also seine Stellvertretungsfähigkeit, zu prüfen. Rechtsfähigkeit kommt keineswegs nur natürlichen Personen zu. Juristische Personen sind ebenfalls rechtsfähig, indem das Gesetz sie dazu erklärt, wie man an der Aktiengesellschaft, der GmbH oder der Stiftung sehen kann. Der BGH hat gar einer Gesellschaft bürgerlichen Rechts Teilrechtsfähigkeit zugesprochen.[17] Rechtsfähigkeit mag zwar eines der vornehmsten Attribute natürlicher Personen sein, als rechtliche Fiktion wird sie jedoch regelmäßig auch anderen Gebilden zugebilligt. Im Prinzip kehrt das Recht der Stellvertretung damit zu seinen Wurzeln im römischen Recht zurück, wo der Sklave seinen Herrn rechtswirksam bindend vertreten hat, ohne selbst eine rechtsfähige Person zu sein, und der Herr für die Handlungen seines Sklaven einzustehen hatte.[18]

 

Der Einwand, dass den Softwareagenten die notwendigen Willenselemente fehlen, lässt sich ausräumen, wenn man in den Objektivierungstendenzen in der Rechtsgeschäftslehre auch die Möglichkeit eröffnet sieht, dass bewusstseinslose Softwareagenten rechtswirksame Willenserklärungen abgeben können. Auf den subjektiven Willen des Erklärenden kommt es nach der neueren Rechtsprechung gar nicht mehr an. Der objektive Vertrauensgrundsatz hat die subjektiven Vorstellungen der Parteien verdrängt. Der Erklärende muss sich sein Äußeres Verhalten im Rechtsverkehr zurechnen lassen.[19] Der Erklärende kann sein fehlendes Erklärungsbewußtsein nicht der Geltung der Willenserklärung entgegensetzen, wenn er, so der BGH, „fahrlässig nicht erkannt hat, dass sein Verhalten als Willenserklärung aufgefasst werden könnte, und wenn der Empfänger es tatsächlich so verstanden hat“.[20] Es kommt also darauf an, dass 1.) objektiv eine aus dem Vertrauen entstandene soziale Norm besteht, nach der das konkrete Verhalten als eine bindende Willenserklärung verstanden werden darf, dass 2.) der Erklärende bei Anwendung der im Verkehr erforderlichen Sorgfalt verpflichtet ist, diese soziale Norm zu erkennen und nicht gegen diese Pflicht zur Kenntnisnahme fahrlässig zu verstoßen. Damit aber können Softwareagenten, die über elaborierte kognitive Fähigkeiten verfügen, umgehen.[21] Das gilt jedenfalls dann, wenn man die Fähigkeit, das eigene Verhalten zu kontrollieren und zu beherrschen, als ausschlaggebendes Kriterium für die Anerkennung eines rechtsfähigen Subjekts ansieht.[22] Denn bei 1.) handelt es sich um die für die Industrie 4.0 konstitutive unternehmensübergreifende Verknüpfung von Wertschöpfungsketten, und bei 2.) um deren weitgehende Selbststeuerung durch autonome Softwareagenten. Für diese genügt in funktionaler Sicht die bloße Teilrechtsfähigkeit, die Stellvertretungsfähigkeit. Mit einer solchen analogen Anwendung des Stellvertretungsrechts lässt sich die planwidrige Regelungslücke schließen, dass der Gesetzgeber autonome IT-Systeme noch nicht erfassen konnte.[23]

 

Ein Blick ins U.S.-amerikanische Recht zeigt, dass dort ähnliche Regelungen bereits gesetzlich normiert sind. So legt der UNIFORM ELECTRONIC TRANSACTIONS ACT (1999)[24] in Section 14 fest: „A contract may be formed by the interaction of electronic agents of the parties, even if no individual was aware of or reviewed the electronic agents’ actions or the resulting terms and agreements.”[25]

 

Für die unternehmerische Praxis ist es empfehlenswert, vertraglich festzuschreiben, dass die Vorschriften über Willenserklärungen und Vertragsabschluss auch dann gelten sollen, wenn sie unter Verwendung von oder durch Maschinen erfolgen.[26]

 

2.4. e-Person

 

Will man aber an der dogmatisch vertretbaren Ansicht festhalten, dass ein Softwareagent keine Rechtsfähigkeit bzw. keinen eigenen Willen besitzen kann,[27] dann bleibt nur, de lege ferenda auf die elektronische Person (e-Person) zu warten. Der „Bericht des Europäischen Parlaments mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik“ vom 27.1.2017 sieht unter Punkt 59 lit. f vor, „langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügeltsten autonomen Roboter ein Status als elektronische Person festgelegt werden könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich wäre, sowie möglicherweise die Anwendung einer elektronischen Persönlichkeit auf Fälle, in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren.“[28]

 

Die e-Person erscheint aber umso weniger sinnvoll, je besser das geltende Recht die Phänomene der Industrie 4.0 und ihrer Technologien abbilden kann.[29] So ist ein wesentlicher Grund, eine e-Person mit Teilrechtsfähigkeit zu schaffen, die Tatsache, dass ein autonomer Softwareagent keine eigene Haftungsmasse besitzt, aus der bei einem von ihm zu verantwortenden Schaden Ersatz geleistet werden könnte. Doch selbst wenn er über eigene Haftungsmasse verfügte, geht der damit erzielte Verhaltensanreiz ins Leere, da dem Softwareagenten kein Überlebenswille innewohnt.[30]

 

Vor allem aber löst die Figur der e-person ganz erhebliche praktische Fragen nicht, nämlich: Was ist es genau, dem wir Rechtsfähigkeit verleihen würden - ist es die Hardware, etwa der physische Körper eines Roboters, oder vielmehr die Software, die die Hardware betreibt? Und wenn letzteres der Fall wäre, wie gehen wir damit um, dass die Software auf mehreren Standorten und Servern platziert wird und in immer wieder neuen Konfigurationen arbeitet?[31] Ab welchem Grad wäre ein System als autonom und nicht mehr bloß automatisch anzusehen? Was, wenn das System sich im Zeitablauf verändert, sei es durch Updates oder durch selbstlernendes Verhalten? Aus diesen Gründen werden für von autonomen Systemen Geschädigte eher Versicherungslösungen sinnvoll sein, die aber keiner e-Person bedürfen, sondern nach hergebrachten Grundsätzen dargestellt werden können.[32] Dann kann ein künstlich intelligenter autonomer Softwareagent Rechtsobjekt bleiben, ein Werkzeug, dessen mathematisch abgeleitete Handlungen letztlich eine Delegation von Entscheidungen durch Menschen sind, die dafür weiterhin verantwortlich sind.[33]

 

2.5. Anfechtung

 

Es bleibt nun noch zu prüfen, ob man die Erklärung einer Maschine gem. §§ 119, 120 BGB anfechten könnte.

 

  • 120 BGB setzt voraus, dass die Erklärung durch einen Boten fehlerhaft übermittelt wurde. Bei von einem Softwareagenten autonom erstellten Erklärungen fehlt es nach den o.a. Überlegungen zur mangelnden Boteneigenschaft des autonomen Systems bereits an einer Erklärung eines menschlichen Geschäftsherrn. Geht man abweichend davon dennoch von einer Botenschaft aus, folgt daraus die Möglichkeit einer Anfechtung der Erklärung gemäß § 120 BGB (analog), wenn das autonome System eine Erklärung abgibt, die nicht den Vorstellungen des Betreibers im Zeitpunkt der Abgabe seiner eigenen Erklärung – also der Inbetriebnahme – entsprach.[34] Als Konsequenz daraus kann sich der anfechtende Betreiber nach § 122 BGB schadensersatzpflichtig machen.

 

Sieht man das autonome System als Vertreter des Geschäftsherrn,[35] so wirken die Erklärungen des Systems unmittelbar gegen den Vertretenen. Nach § 119 BGB kann ein Irrtum angefochten werden, der auf einer unbewusst falschen oder fehlerhaften Vorstellung des Erklärenden über die Wirklichkeit beruht. Ein Irrtum liegt nicht vor, wenn der Erklärende die Möglichkeit bewusst in Kauf nimmt, dass seine Vorstellung falsch oder lückenhaft war.[36] In der Industrie 4.0 delegiert ein Unternehmen bestimmte Entscheidungen über Vertragsabschlüsse wissentlich und willentlich an ein nicht-deterministisches, autonomes und oft gar selbstlernendes und sich selbst veränderndes System, um Effizienzvorteile zu erzielen. Um dieses Vorteils willen nimmt das Unternehmen in Kauf, dass das System auch einmal eine falsche Erklärung abgegeben wird. Das kommt auch bei einem menschlichen Vertreter vor, doch gibt der Schadensersatzanspruch gegen einen solchen falsus procurator (§ 179 BGB) dem Vertreter einen hinreichenden Anreiz, sich innerhalb seiner Vertretungsmacht zu halten.

 

Wenn die Autonomik außerhalb ihrer Vertretungsmacht agiert, kann sie mangels eigener Haftungsmasse nicht nach § 179 BGB auf Schadensersatz in Anspruch genommen werden. Teilweise wird das autonome System als beschränkt geschäftsfähig und damit wie ein minderjähriger Vertreter angesehen, dessen Schadensersatzpflicht nach § 179 II 2 BGB ausscheidet.[37] Im Ergebnis würde in beiden Fällen die gesetzgeberische Intention des § 179 BGB ausgehebelt, und das Erklärungsrisiko der Softwareagenten bliebe allein dem Vertragspartner aufgebürdet. Das widerspricht dem Schutz des redlichen Verkehrs, der Vorrang hat vor dem inneren Willen des Erklärenden.[38]

 

Deshalb liegt auch kein Anfechtungsrecht vor, wenn der Softwareagent seine Erklärung aufgrund falschen Datenmaterials berechnet hat, oder wenn seine Künstliche Intelligenz aufgrund fehlerfreier Daten zu Schlussfolgerungen gelangt ist, die der Geschäftsherr so nicht wollte. In solchen Fällen handelt es sich um einen unerheblichen Irrtum in der Erklärungsvorbereitung.[39]

 

Das bedeutet, dass ein Unternehmen, das sich autonomer Softwareagenten zur Abgabe von Willenserklärungen bedient, diese nicht anfechten kann.

 

Im Vertragswerk sollte man deshalb ausdrücklich festhalten, dass  a) Softwareagenten handeln werden, und zwar b) mit Vollmacht, und c) sollte man ggf. die Vollmacht gemäß  § 54 III HGB nach außen erkennbar (jedenfalls unter den Vertragsparteien), beschränken, etwa auf ein bestimmtes Geschäftsgebiet, auf eine betragliche Höhe oder ähnliches.[40] Zu überlegen ist weiterhin, ob vertragliche Absprachen Sonderregelungen enthalten sollten, die Anfechtungs- oder Vertragsaufhebungsgründe bei Fehlern der Machine-to-Machine-Kommunikation regeln. Sofern die Belange der anderen Vertragspartei ausreichend gesichert sind, z.B. Entschädigung des Vertrauensschadens, wird man solche Regelungen auch in AGB als wirksam ansehen können.[41]

 

3. Fazit und Handlungsempfehlungen

 

Die tradierten Vorstellungen der Rechtsgeschäftslehre werden der Realität vieler Smart Factories mit ihren autonom handelnden Systemen vielfach nicht mehr gerecht.[42] Deshalb sollten die Teilnehmer an einem solchen Wertschöpfungsnetzwerk im Rahmen ihrer Privatautonomie folgende Punkte vertraglich regeln:

 

  • Die Beteiligten verständigen sich zunächst darauf, dass sie gegenseitig autonome Softwareagenten einsetzen, und dass die Vorschriften über Willenserklärungen und Vertragsabschluss auch dann gelten sollen, wenn sie unter Verwendung von oder durch Maschinen erfolgen.
  • Dann ist zu klären, welche Systeme welche Erklärungen wem gegenüber abgeben dürfen. Der Rahmen der Vertretungsmacht sollte möglichst exakt festgelegt werden, innerhalb dessen ein autonomes System mit Wirkung für seinen Betreiber handeln kann.
  • Wie ist mit einer „falschen“ Erklärung umzugehen? Unter welchen Bedingungen kann eine solche Erklärung rückgängig gemacht werden, und wer trägt dann welche Kosten?
  • Um Beweisproblemen vorzubeugen, können die Beteiligten Beweismittelverträge[43] schließen und Beweislastregeln[44] vereinbaren.
  • Die Parteien sollten all dies mit technisch-organisatorischen Maßnahmen absichern. So lassen sich in den Systemparametern etwa Betrags- oder Bestellobergrenzen eintragen, bei deren Überschreitung ein menschlicher Entscheidungsträger hinzugezogen wird. Mit Hilfe welcher technischen Protokolle und Standards wird eine rechtsgültige Machine-to-Machine-Kommunikation abgewickelt? Hier ist eine enge Zusammenarbeit mit der IT-Abteilung gefordert.
  • Schließlich sollten die Vertragsparteien in ihre Überlegungen einbeziehen, ob sie im Streitfalle ihre Differenzen nicht besser vor einem informationstechnologisch und produktionstechnisch fachkundig besetzten Schiedsgericht klären lassen sollten.

 


[1] Key Topic: Industrie 4.0 (hannovermesse.de), zuletzt abgerufen am 9.4.2021.

[2] Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter Systeme, 2016, S. 141.

[3] Kainer/Förster, ZfPW 2020, 275, 279.

[4] Cornelius, MMR 2002, 353, 354; Kirn/Müller-Hengstenberg, Rechtliche Risiken autonomer und vernetzter Systeme, 2016, 88 f.; Borges, NJW 2018, 977, 978; Lukas, Contractual Solutions for Digitalized Cross-Company Value Networks in Industry 4.0 - Part 1: Introduction, 2021, S. 11, zuletzt abgerufen am 19.4.2021.

[5] BGHZ 195, 126, Rn. 17.

[6] Palandt/Ellenberger, BGB, 77. Aufl. 2018, Einl vor § 116, 1; MüKo/Busche, BGB, 8. Aufl. 2018, vor § 145, Rn. 38; Riehm, RDi 2020, 42, 48.

[7] Riehm/Meier, Künstliche Intelligenz im Zivilrecht, in: Fischer et alt (Hrsg.), DGRI Jahrbuch 2018, Rn 14.

[8] Hüther/Danzmann, BB 2017, 834, 835.

[9] Riehm/Meier, Künstliche Intelligenz im Zivilrecht, in: Fischer et alt (Hrsg.), DGRI Jahrbuch 2018, Rn 13.

[10] Specht/Herold, MMR 2018, 40, 43; vgl. Palandt/Ellenberger, BGB, 77. Aufl. 2018, § 130, 4.

[11] Ensthaler, Industrie 4.0 und die Erzeugung von hochflexiblen Kooperationsbeziehungen zwischen Unternehmen, InTeR 2019, 159.

[12] Specht/Herold, MMR 2018, 40, 43.

[13] Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter Systeme, 2016, S. 150.

[14] Kainer/Förster, ZfPW 2020, 275, 286, 288.

[15] Spindler, DB Dossier 22 „Rechtliche Gestaltung der Digitalisierung“, 2018, S. 12.

[16] Specht/Herold, MMR 2018, 40, 43.

[17] BGH NJW 2003, 1445.

[18] Loos, Machine-to-Machine Contracts in the Age of the Internet of Things, in: Schulze et alt., Contracts for the Supply of Digital Content: Regulatory Challenges and Gaps, S. 59.

[19] Teubner, Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten, Ancilla Iuris 2018, S. 62.

[20] BGH NJW 1995, 953; vgl. auch BGH NJW 2002, 362.

[21] Teubner, Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten, Ancilla Iuris 2018, S. 62.

[22] Specht/Herold, MMR 2018, 40, 43.

[23] Teubner, AcP 218 (2018), 155, 182; a.A. Kainer/Förster, ZfPW 2020, 275, 294.

[24] UNIFORM ELECTRONIC TRANSACTIONS ACT (1999), zuletzt abgerufen am 17.12.2019.

[25] Ein Vertrag kann durch die Interaktion der elektronischen Bevollmächtigten der Parteien geschlossen werden, auch wenn keine Person von den Handlungen der elektronischen Bevollmächtigten oder den daraus resultierenden Bedingungen und Vereinbarungen Kenntnis hatte oder diese überprüft hat.

[26] Plattform Industrie 4.0, Wie das Recht Schritt hält, Okt. 2016, S. 7.

[27] So Spindler, DB Dossier 22 „Rechtliche Gestaltung der Digitalisierung“, 2018, S. 12; Foerster, ZfPW 2019, 418, 430.

[28] Bericht mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik, S. 20 f, zuletzt abgerufen am 18.12.2019.

[29] Vgl. Specht/Herold, MMR 2018, 40, 43.

[30] Hornung/Hofmann, Industrie 4.0 und das Recht: Drei zentrale Herausforderungen, in: Hornung (Hrsg.); Industrie 4.0 und das Recht, 2018, S. 39.

[31] Riehm, RDi 2020, 42, 45; Loos, Machine-to-Machine Contracts in the Age if the Internet of Things, in: Schulze et alt., Contracts for the Supply of Digital Content: Regulatory Challenges and Gaps, S. 59.

[32] Müller, InTeR 2019, 1.

[33] Dettling/Krüger, MMR 2019, 211, 214.

[34] Riehm/Meier, Künstliche Intelligenz im Zivilrecht, in: Fischer et alt (Hrsg.), DGRI Jahrbuch 2018, Rn 14.

[35] So Specht/Herold, MMR 2018, 40, 43 f.

[36] Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter Systeme, 2016, S. 149.

[37] Specht/Herold, MMR 2018, 40, 43; Riehm/Meier, Künstliche Intelligenz im Zivilrecht, in: Fischer et alt (Hrsg.), DGRI Jahrbuch 2018, Rn. 16.

[38] BGH, Urteil v. 7.11.2001, Az. VIII ZR 13/01.

[39] Palandt/Ellenberger, BGB, § 119, Rn. 10.

[40] Riehm/Meier, Künstliche Intelligenz im Zivilrecht, in: Fischer et alt (Hrsg.), DGRI Jahrbuch 2018, Rn. 15.

[41] von Baum et al., DB 2018 Dossier 22 „Rechtliche Gestaltung der Digitalisierung“, S. 26.

[42] Borges, NJW 2018, 977, 979.

[43] MüKoZPO/Prütting, 5. Aufl. 2016, ZPO § 286 Rn. 161, 164.

[44] Hornung/Hofmann, Industrie 4.0 und das Recht, 2018, S. 41.

 

Die Welt der EDRA Media

Die LRZ erscheint bei der EDRA Media GmbH.
EDRA Media ist ein innovativer Verlag,
Veranstalter und Marketingdienstleister auf den
Gebieten des Rechts und der Medizin.

Gesellschafter sind die Edra S.p.A. (LSWR Group)
und Dr. Jochen Brandhoff.

 

​EDRA MEDIA│ Innovation, Sustainability, Resilience

LEGAL REVOLUTION │Die Rechtsmesse

​LR ACADEMY│ Erlebe Spezialistenwissen

Ihr Kontakt

Journal@LRZ.legal

+49 69 3487 920-92

 

Zeil 109
60313 Frankfurt a. M.

Folgen Sie uns