LexisNexis lud seine Autor:innen in einer Digital-Veranstaltung zu einem Update zum Umgang mit KI in der Rechtsbranche. Unter der Moderation von Sophie Martinetz diskutierten: Harald Leitenmüller (Chief Technology Officer Microsoft), Paul Kampusch (Director Content Management LexisNexis) und die Rechtsanwälte Axel Anderl und Alexandra Ciarnau von Dorda Rechtsanwälte.
Bei der Veranstaltung ging es vor allem um die Aspekte Datenschutz und um die Qualität juristischer Daten. Für LexisNexis ist bei der Implementierung neuer Technologien und bei der Weiterentwicklung bestehender Lösungen die Sicherheit und die Orientierung an Regularien das oberste Gebot. Rund 2000 Entwickler weltweit orientieren sich an den Konzern-Leitlinien im verantwortungsvollen Umgang mit Künstlicher Intelligenz. LexisNexis übernimmt hier die Initiative, um zu zeigen, dass das Unternehmen sich nicht als betroffen versteht, sondern am Vorantreiben der sinnvollen Nutzung der Technologien beteiligt ist. Denn laut Paul Kampusch komme es in der Rechtsberatung letztlich darauf an, wie sehr man sich auf die Inhalte verlassen kann. Dafür sei zitierfähiges und 100% belastbares Material notwendig und das finde sich nun mal in einer Rechtsdatenbank. Durch die harte Grenze der Paywall sei hier gesichert, dass ein Robot nicht auf das System zugreifen kann. So ist gesichert, dass man keine „offenen“, sondern rechtssichere Informationen erhält. Daran werde sich auch in Zukunft aus der Sicht von LexisNexis nichts ändern. Mit den Herausgeber:innen und Autor:innen möchte das Unternehmen sicher stellen, dass die Qualität der Inhalte gleichbleibend hoch ist.
Schutz vor Datenmissbrauch
Weiters wies Harald Leitenmüller darauf hin, dass man sich bewusst sein muss mit welchen Datenkategorien Künstliche Intelligenz arbeitet. ChatGPT ist ein sogenanntes „Large Language Modell“, also ein Sprachmodell dessen Algorithmen auf mittels Text trainiert werden. Die Daten werden aggregiert und es entstehen individuelle, hochspezialisierte Modelle, die für verschiedene Aufgaben optimiert sind. Durch Content Moderation werden die Inhalte auf Diskriminierung, anstößige Inhalte oder jugendgefährdende Themen überprüft. Damit Unternehmen vor Datenmissbrauch geschützt sind, empfiehlt Leitenmüller die Enterprise Lösung von ChatGPT. So lasse sich sicherstellen, dass das System auf einen Datenpool zurückgreift, der dem Unternehmen gehört und die Daten das Unternehmen nicht verlassen.
Medienkompetenz stärken
Auch Alexandra Ciarnau wies bei der Frage nach dem Datenschutz auf die Enterprise Lösung hin. Damit ließe sich vermeiden, dass die Daten von anderen genutzt werden, vor allem wenn es um personenbezogene Daten geht. Axel Anderl ergänzte, dass man sich noch immer in einem Graubereich bewege und Rechtsverletzungen dann passieren können, wenn KI auf öffentliche Quellen zugreift. Er wies darauf hin, dass „alle innovativen Produkte wie Suchmaschinen immer wieder mit dem bestehenden Recht anecken“ Durch die rasche Verbreitung und breite Nutzung werden schnell Fakten geschaffen und die Rechtsprechung passe sich oft erst im Nachhinein an. Weiters wies er in diesem Zusammenhang auf die wachsende Bedeutung der Medienkompetenz hin. Hier waren sich alle Beteiligten einig, dass ein bewusstes und kritische Nutzungsverhalten gefragt sei, denn man könne immer weniger erkennen was real ist und was fake ist. Daher sei Medienkompetenz noch stärker im Fokus, auch in Universitäten und Schulen, damit man den Entwicklungen nicht hinterherhinke und von der KI überholt wird.