Wie LexisNexis sichere und verlässliche AI entwickelt, schilderte Susanne Mortimore am 4Gamechangers Festival bei der Podiumsdiskussion mit Ott Velsberg (Chief Data Officer Estland), Lucy Georgieva (Google) und Thomas Plank (CEO Tributech) zum Thema Safeguarding the Future: The Crucial Role of Security in AI.
Insgesamt zeigte die Diskussion, dass AI auch Risiken birgt, aber vor allem große Chancen bietet. Wenn Sicherheit von Anfang an mitbedacht wird, bietet AI sowohl wirtschaftlich als auch gesellschaftlich ein immenses Potenzial:
Susanne Mortimore (CEO LexisNexis Österreich) betonte, dass technische Expertise und Umfeld wichtig sind für das Training einer AI, und vor allem Datenschutz eine Grundvoraussetzung ist (zum Beispiel, dass eingegebene Infos nicht zurücklaufen, um das Modell zu trainieren oder um das Wissen des Modells zu erweitern). Daneben spielen thematische Expertise bei Rechtsinhalten eine herausragende Rolle. LexisNexis folgt dabei der internen Richtlinie „human in the loop“, also menschliche Aufsicht beim Finetunig der AI Ergebnissen: LexisNexis beteiligt viele Rechtsexpert:innen direkt an der Entwicklung von AI, um zB die Ergebnisse der AI zu kontrollieren.
Firmen müssen bei Ihren AI Produkten transparent sein, mit welcher Wahrscheinlichkeit richtige Antworten geliefert werden. Die EU hat vor wenigen Monaten eine Einigung beim AI Act erzielt – LexisNexis hat schon längere Zeit konkrete interne Richtlinien für verantwortungsvolle AI. Grundlegende Forderungen des AI Acts sind in LexisNexis’ Regeln bereits enthalten: Lösungen sollen erklärbar sein, menschliche Aufsicht & Datenschutz muss eingehalten werden und Vorurteile in Daten sollen vermieden werden
Neben verantwortungsvoll entwickelten Anwendungen muss AI auch verantwortungsvoll genutzt und eingesetzt werden. Sie unterstrich, dass eine AI zB eine Anwältin niemals ersetzen soll, und wies darauf hin, dass jedes Ergebnis von Jurist:innen kontrolliert und hinterfragt werden soll, die Letztentscheidung muss beim Menschen bleiben.
Mortimore möchte mittels AI das Versprechen einlösen, unser Arbeitsleben besser zu machen; Zum Beispiel, dass wir Routinen an AI delegieren können, um mehr Zeit für spannenden Aufgaben zu haben.
Es nutzen nur 8% der Industrieunternehmen und 15% der Leitbetriebe AI als signifikanten Teil des Geschäftsmodells. Laut Lucy Georgieva (Google) gibt es AI schon seit Jahrzehnten, Textvorschläge oder Wortverbesserungen sind AI, die wir tagtäglich nutzen. Generative AI ist aber ein Spezialfall, der nun Marktreife erlangt und daher noch viel Potenzial hat, Unternehmen seien dabei diese neue Technologie nun Schritt für Schritt zu übernehmen. AI und Security spielen bei Google eine große Rolle, zB bei Gmail wird AI genutzt um 99% der Phishing Emails abzufangen, das ist ein laufender Prozess, täglich wird die KI mit neuen Gefahren gespeist, um den Filter aktuell zu halten.
Weitere Beispiele: Ein internes Projekt namens Red Team greift Google täglich an, um es auf Sicherheitslücken zu testen; das Projekt Zero sucht im Internet nach Schwachstellen bei Firmen, um diese dann zu warnen. Weil alles vernetzt ist, hilft es auch Firmen, Netzwerken und defacto uns allen, wenn man seine persönlichen Zugänge mit sicheren Passwörtern versieht.
Sie glaubt, dass AI einen gesamtgesellschaftlichen Wert hat und erwähnte Alphafold (es errechnet 3D Proteinstrukturen und beschleunigt Forschung enorm), Überschwemmungsvorhersagen und Medizinscreening, die vor allem Entwicklungsländern zu Gute kommen.
Ott Velsberg ist für Datenpolitik von Estland verantwortlich. Seit einem Jahrzehnt arbeitet er mit internationalen Partnern zusammen, denn Cybersicherheit ist eine weltweite Angelegenheit. Vor 20 und 12 Jahren und auch heute gibt es besonders viele Attacken auf estnische Infrastruktur, da macht es sich bezahlt, dass sie auch bei Budgetknappheit immer weiter investiert haben. Er setzt vor allem auf eine ganzheitliche Sicht: Man soll laufend neu bewerten, ob man Diensteanbietern, oder einzelnen Programm-Erweiterungen vertrauen kann und auch nicht den Blick auf die Technik beschränken: oft sind Personen oder Leitlinien innerhalb einerOrganisationen das schwächste Glied.
Estland nutzt AI, um Anomalien in Daten bzw. Cyberbedrohungen zu erkennen, und beschäftigt sich bereits mit Quantenkryptografie. Die Bedrohungslage ist stets in Veränderung: Es gibt nun Scamanrufe, wo Stimmen von Verwandten mittels AI immitiert werden, um für einen Notfall Geld zu fordern. Es brauche neue Fähigkeiten, beispielsweise, dass man mit Bekannten ein Losungswort ausgemacht hat, um die Identität zu bestätigen, ein Losungswort, welches man niemals digital kommunizieren darf.
Prinzipiell ist er Technologieoptimist und sieht es als Mission der Allgemeinheit persönliche AI-Assistenten bereitzustellen, zum Beispiel für Bildung und für individualisierte Gesundheitsempfehlungen.
Thomas Plank (CEO Tributech) verwies auf die aktuelle Bedrohungslage: Datapoisoning, also die Manipulation von Trainingsdaten, sowie Manipulation und Diebstahl von AI-Modellen. Wichtig sei, dass man Bewusstsein und Vorsicht schafft in Unternehmen. Bei AI zeigt sich der Konflikt, dass sich Unternehmen zwischen „fast to market“ vs „secure to market“, also zwischen Entwicklungsgeschwindigkeit und Sicherheit entscheiden müssen (die Entwicklungen bei IOT (Internet of Things) nannte Plank als Negativbeispiel). Als Best Practice empfiehlt er bei Daten auf den ganzen Lebenszyklus zu schauen, also Nachvollziehbarkeit und Fälschungssicherheit bis zum Tag 1 der Datenaufzeichnung. Er ist optimistisch, dass der Standort Europa noch die Möglichkeit hat, bei kritischer AI aufzuholen.
Werden Sie jetzt Lexis+ AI Insider für kostenfreien Zugriff auf Umfragen und Fachartikel zu Artificial Intelligence für Recht und Steuer.