LRZ E Zeitschrift Logo

LRZHeaderBogenRot


Autorenprofil

Dr. Paul von Bünau
Geschäftsführer, idalab

Dr. Paul von Bünau ist Geschäftsführer bei idalab, einer in Berlin ansässigen, 2003 gegründeten Agentur für Data Science, die sich auf Maschinelles Lernen, Künstliche Intelligenz, mathematische Modellierung und Data Strategy spezialisiert hat. idalab berät eine Vielzahl von Kunden im Bereich Bankwesen, Mobilität, Biotechnologie, im digitalen Sektor und darüber hinaus. Paul von Bünau studierte Mathematik, Informatik und Physik und promovierte im Bereich Statistische Datenanalyse. Zum Thema dieses Beitrags hat Paul von Bünau ebenfalls ein detailliertes Kapitel im Rechtshandbuch Legal Tech geschrieben, welches im Januar 2018 im C.H.Beck Verlag erschienen ist.

Beiträge des Autors/der Autorin in der LRZ

Basis aller heutigen Künstlichen Intelligenz sind bekanntlich Algorithmen. Diese sind in den letzten Jahren in zunehmendem Ausmaß in den Fokus der öffentlichen Wahrnehmung gerückt. Dabei schwankt der Grad an thematischer Souveränität und Güte der einzelnen Wortmeldungen aus Presse, Politik und Gesellschaft teils erheblich. Headlines zum Thema Künstliche Intelligenz können zuweilen Verwirrung stiften: „Männer sind leichter durch Künstliche Intelligenz zu ersetzen als Frauen“, titelt beispielsweise die Neue Zürcher Zeitung. „Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen“, lässt das Handelsblatt verlauten. Und RP online überrascht mit „Künstliche Intelligenz aus Japan - Roboterfrau wird Krankenschwester“. Was unter den Akteuren der Debatte um KI allgemein als gesetzt angesehen wird, ist, dass Algorithmen massiv in unser aller Leben eingreifen werden - oder das sogar schon tun. Das soll hier gar nicht bestritten werden. Trotzdem muss man sagen: Wirklich fundiertes Wissen fehlt fast allen, die sich zu diesem Thema zu Wort melden. Dessen ungeachtet fühlen sich viele zu Urteilen inspiriert, die über eine sorgenfreie Zukunft bis hin zum vollständigen Untergang der Menschheit reichen. Angesichts dieser lückenhaften Aufklärung über ein Thema, das imstande ist, gleichzeitig so viel kollektive Angst und Hoffnung auszulösen, ist es durchaus nicht verwunderlich, dass ein stark ausgeprägter Reflex der Debatte die laute Forderung nach Transparenz ist. Das, was da kommt, egal was es macht, egal für wen, es soll, nein es muss - Unbedingt! - transparent bleiben. Denn Transparenz ist Basis unserer freiheitlichen, demokratischen Grundordnung und die gilt es zu schützen - soweit sind sich (fast) alle einig. Doch was meinen wir eigentlich, wenn wir von Transparenz in Bezug auf Algorithmen sprechen?

Um das zu klären, müssen zunächst noch einige andere Fragen grundsätzlich erörtert werden. Das ist angesichts der angesprochenen, teils desolaten, Informationslage dringend geboten.

Nachdem das Interesse an KI jahrzehntelang im Winterschlaf befindlich schien, entlädt es sich im aktuellen AI-Summer in einer vormals nicht gekannten Euphorie. Wohin man auch schaut, wird prophezeit, dass tiefgreifende Veränderungen anstehen und dass, wer jetzt nicht aufspringt, den Anschluss verpassen wird. So auch in den Rechtswissenschaften, auch wenn die KI-Welle hier vergleichsweise spät kommt. Hier hält die Künstliche Intelligenz als Teil des Legal Technology Booms Einzug und beginnt bereits langsam, ihr disruptives Potenzial zu entfalten. Doch während jenes Potenzial durchaus ernst zu nehmen ist und in der Tat unbestreitbar Veränderungen anstehen, sollte der weit verbreiteten Angst, Künstliche Intelligenz könnte den Juristen zuerst bevormunden und dann völlig abschaffen, mit Vorsicht begegnet werden. Stattdessen tut man gut daran, der Frage „Was ist Künstliche Intelligenz?“ ganz dezidiert nachzugehen – um die aktuellen Entwicklungen kritisch beurteilen zu können.[1]

Ihr Kontakt

Journal@LRZ.legal

+49 69 3487 920-92

 

Kaiserstraße 53
60329 Frankfurt a. M.

Folgen Sie uns

 Xing