Digitalisierung | Standortpolitik

KI im Betrieb einsetzen? Aber (rechts-)sicher!

Jacob Lund/Adobe Stock ©
Viele Mitarbeiter verwenden KI am Arbeitsplatz bereits – nicht alle denken dabei an rechtliche Grenzen

Bei der Nutzung von künstlicher Intelligenz spielen Datenschutz, IT-Sicherheit und Urheberrecht eine erhebliche Rolle – Tipps für Unternehmen.

Von Eva Müller-Tauber, IHK-Magazin 01–02/2024

An sich war es eine gut gemeinte Idee: Weil der Abteilungsleiter gesundheitsbedingt schon länger im Büro fehlte, wollte ihm sein Team einen ausführlichen Genesungsgruß schreiben. Ein Kollege bemühte hierfür ChatGPT. „Schreibe einen Text für eine Genesungskarte an unseren Chef Frank Zeiser (Name geändert) aus Freising mit unseren besten Wünschen“, lautete der Auftrag. Tatsächlich spuckte der Computer umgehend einen ansprechend formulierten Text aus.

Das Problem: Der Prompt enthielt den Vor- und Zunamen des erkrankten Mitarbeiters in Verbindung mit seinem Wohnort und dem Begriff Genesung. Damit gab die Eingabe unbeabsichtigt persönliche Daten im Zusammenhang mit dem Gesundheitszustand preis – ohne die Einwilligung des Betroffenen ist das ein Datenschutzverstoß. Denn ChatGPT, das als künstliche Intelligenz (KI) ständig dazulernt, greift nicht nur auf Texte und Informationen zu, die frei im Internet verfügbar sind. Es nutzt auch Benutzereingaben zum Trainieren.

Generative KI im Fokus

Bereits dieses einfache Beispiel zeigt: KI birgt Chancen, sie kann Prozesse beschleunigen und vereinfachen. Aber: „Vor allem generative KI, die auf Basis von Vorgaben und vorhandenen Informationen neue Inhalte generiert, wirft auch Fragen zur rechtskonformen Nutzung auf, sobald personenbezogene Daten ins Spiel kommen“, sagt Juristin und Datenschutzexpertin Rita Bottler von der IHK für München und Oberbayern.

Neben dem Datenschutz ist außerdem das Urheberrecht beim KI-Einsatz ein Thema. „Und die IT-Sicherheit“, ergänzt Franziska Neuberger, Leiterin des IHK-Referats Digitalisierung & IKT. „Denn KI bietet nicht nur Usern neue Möglichkeiten, sondern erleichtert auch Cyberkriminellen ihre Arbeit.“ Damit seien Unternehmen gleich in mehrfacher Hinsicht gefordert.

Art der Daten entscheidend

Wie können Firmen das Thema am besten angehen? „Bezüglich des Datenschutzes und der Verarbeitung von Daten stellt sich generell und damit auch beim Einsatz von KI immer zuerst die Frage: Welche Art von Daten ist betroffen?“, sagt Michael Will, Präsident des Bayerischen Landesamts für Datenschutzaufsicht (BayLDA) in Ansbach.

Verhältnismäßig unkritisch sei es aus Datenschutzsicht, wenn es sich nicht um personenbezogene Daten handle, zum Beispiel wenn ein Nutzer nur ein Schreiben über ein KI-System in einfacher Sprache zielgruppenspezifisch für seine Unternehmenswebsite umformulieren lässt.

Sind personenbezogene Daten im Spiel, gilt es zu klären: Wie risikoreich ist die Verarbeitung dieser Daten für Betroffene? Bei einem hohen Risiko sei eine Datenschutzfolgeabschätzung (DSFA) nötig, so Will. „Wenn ich meine KI mit Mitarbeiterdaten füttere, ist dies meist der Fall“, erläutert der Datenschutzexperte, „selbst wenn dahinter eine nicht vorrangig negative Absicht steckt.“ Das kann der Fall sein, wenn ein Unternehmen zum Beispiel anhand der Art, wie Beschäftigte Mails schreiben oder Software nutzen, Abwanderungstendenzen erkennen und der inneren Kündigung seiner Mitarbeiter vorbeugen will.

Mit ein paar Klicks ins Risiko

Auch wenn eine Firma anhand von KI das Stimmverhalten und die Augenmotorik auswerten lässt, um die Stimmung bei einer Videokonferenz nachzuvollziehen, sei dies problematisch, warnt Will: „Das Risiko, dass hier etwas schiefläuft, die angereicherten personenbezogenen Daten in falsche Hände gelangen, ist einfach zu groß.“ Unternehmen sind gefordert, hier vorbeugend entsprechende technische und organisatorische Maßnahmen (TOM) zu treffen, um das Risiko zu minimieren. „Dazu gehört auch, seine Mitarbeitenden im Umgang mit der KI vor deren Einsatz zu schulen und etwa durch eine Dienstanweisung vorzugeben, was nicht im Prompt stehen darf, oder nur bestimmten Personen Zugriff darauf zu erlauben“, so Will.

Man muss sich darüber im Klaren sein: „Noch nie war es so einfach, KI einzusetzen, nur über ein paar Klicks auf einer Website – das ist faszinierend, aber wenn sie vorhanden und verfügbar ist, wird sie genutzt, ob mit oder ohne Schulung“, ergänzt Andreas Sachs, Vizepräsident des BayLDA und zudem Leiter des Referats Technischer Datenschutz und IT-Sicherheit. Dabei könnten auch unbeabsichtigt Geschäftsgeheimnisse publik werden, wenn etwa nicht der Chef eine Präsentation erstellt, sondern der Assistent, der hierfür ebenfalls eine KI-Anwendung einsetzt.

KI-Anbieter als Auftragsdatenverarbeiter

Aufmerksamkeit verdient auch die Weiterentwicklung KI-gestützter Systeme, wenn diese eingegebene Daten verwenden und daraus lernen – das liegt verständlicherweise im Interesse der KI-Anbieter. Sie werden zum Auftragsdatenverarbeiter, sofern ein Unternehmen ihre KI einsetzt. Das Unternehmen muss entsprechend als Datenschutzverantwortlicher einen Daten-Auftragsverarbeitungsvertrag mit dem KI-Anbieter abschließen.

Hinzu kommt das Urheberrecht. Hier geht es – wie beim Datenschutz – vor allem um den Input, sagt Marieke Merkle, Rechtsanwältin bei der Noerr Partnerschaftsgesellschaft mbB und Lehrbeauftragte IT-Recht an der Ludwig-Maximilians-Universität in München: „Die Frage ist: Mit was darf ich das System trainieren, was etwa an Texten oder Bildern oder ähnlichen, regelmäßig geschützten Werken ist geschützt?“ Schon die Speicherung für das Training von KI könne eine Urheberrechtsverletzung bedeuten. Allerdings gebe es gesetzliche Ausnahmen, die unter bestimmten Voraussetzungen eine Verwendung von urheberrechtlich geschütztem Material zulassen.

Input und Output: Was ist urheberrechtlich geschützt?

Die digitalen Möglichkeiten haben zudem die Reichweiten verändert. „Wer früher ein Bild unberechtigt vervielfältigt hat, hat meist ein paar wenige Exemplare verbreitet. „Heute hat das eine andere Dimension, denn die KI macht gleich 200.000 Kopien davon.“ Beim Output stelle sich insbesondere die Frage, ob und unter welchen Voraussetzungen KI-generierte Inhalte Schutz nach dem Urhebergesetz genießen. Am Horizont zeichneten sich weiter umfangreiche Compliance-Pflichten nach der im Gesetzgebungsverfahren befindlichen KI-Verordnung ab (siehe auch Kasten unten: AI Act). Merkle rät Firmen, sich trotz allem KI nicht völlig zu verschließen. Denn die Effizienzgewinne seien ohne Frage enorm. Es sei zudem fast mit Sicherheit davon auszugehen, dass irgendeiner im Betrieb generative KI – auch ohne Freigabe – verwendet.

Das sieht Michael George, Leiter des Cyber-Allianz-Zentrums Bayern (CAZ) im Bayerischen Landesamt für Verfassungsschutz, ähnlich. Er will Unternehmen für das Thema IT-Sicherheit und KI sensibilisieren. „KI ist vor allen Dingen eines: schnell in ihrer Entwicklung. Immer mehr Problemstellungen können in noch kürzerer Zeit gelöst werden – auch im Sinne der Täter.“ Menschen benötigten immer weniger technische Fähigkeiten, um zielgerichtete Angriffe durchzuführen, was wiederum die Anzahl der Angriffsversuche nach oben schnellen lassen wird, so seine Prognose. „Das ist eine große Herausforderung für die Cybersicherheit, zumal KI für die Optimierung von Schadprogrammen genutzt werden kann.“

Attraktives Ziel für Cyberangriffe

Das Tempo, mit dem sich KI-Themen weiterentwickeln, übersteige in der Regel die Geschwindigkeit, mit der sich Veränderungen im Unternehmen umsetzen lassen, meint George. „Sie erfordern daher ein besonderes Augenmerk – dies gilt sowohl in juristischer wie auch in technischer Hinsicht.“ KI-Systeme bildeten zudem ein attraktives Ziel für Cyberangriffe – mit womöglich verheerenden Folgen für das betroffene Unternehmen.

Ein wichtiges Schlagwort zum Thema KI lautet Vertrauen und dessen Sicherstellung. Wie wird die Echtheit von Informationen sichergestellt? Wie bleiben Daten nachhaltig unverfälscht? „Als ersten Schritt sollten Unternehmen daher einen KI-Beauftragten benennen, der die Entwicklungen permanent im Blick behält und an die jeweiligen Fachbereiche adressiert.“

Organisatorisch vorbeugen, Mitarbeitende schulen

Woran also orientieren sich Firmen am besten? Für sie gelten vor dem Hintergrund von KI-Systemen im Allgemeinen dieselben Grundsätze wie auch in der Informationssicherheit, sagt George. „In der Regel bedeutet dies, dass Unternehmen organisatorisch und technisch vorsorgen müssen sowie ihre Mitarbeiter ständig schulen sollten.“ Das CAZ unterstützt dabei und ist Anlaufstelle für Unternehmen im Falle von Spionage- oder Sabotagevorfällen und kann auf Wunsch Vertraulichkeit gewährleisten.

Kriminellen bald einen Schritt voraus?

IT-Sicherheit könne umgekehrt jedoch auch von KI profitieren, sagt der CAZ-Leiter: „Da KI-Systeme stetig lernen und kein statisches System sind, könnte sich IT-Sicherheit erstmals dynamisch entwickeln und damit den langersehnten Wunsch der Sicherheitskräfte womöglich erfüllen, endlich ›vor die Lage‹ zu kommen, also den Cyberkriminellen quasi einen Schritt voraus zu sein.“    

AI ACT: Europäisches Gesetz über Künstliche Intelligenz

Mit dem Versuch, künstliche Intelligenz (KI) sicher und vertrauenswürdig zu gestalten und gleichzeitig die KI-Entwicklung in Europa zu fördern, haben sich EU-Kommission, Parlament und Mitgliedstaaten Mitte Dezember 2023 auf ein Regelwerk zur KI (AI Act) geeinigt.

Es unterscheidet zwischen verschiedenen Anwendungsbereichen und Risikoklassen. Betroffen sind dabei vor allem Unternehmen, die KI-Systeme entwickeln, die als hochriskant eingestuft werden. Sie sollen künftig strengen Vorgaben, wie beispielsweise Transparenz- und Datenqualitätsanforderungen, unterliegen.

Zu den Hochrisikosystemen zählen unter anderem KI-basierte Anwendungen, die im Personalmanagement, in der Aus- und Weiterbildung, in der kritischen Infrastruktur oder in der Industrie als Sicherheitskomponenten oder -bauteile zum Einsatz kommen.

Ob es dem AI Act tatsächlich gelingen wird, die KI-Entwicklung in der EU zu stärken, bleibt abzuwarten. Obwohl die technischen Details noch ausgearbeitet werden müssen, ist schon jetzt klar, dass ein komplexes Regelwerk entstanden ist. Die Gefahr, dass statt der Innovationsförderung weiterer enormer Bürokratieaufwand auf Unternehmen zukommt, ist hoch. Weitere Infos gibt es auf der IHK-Website zum Thema Künstliche Intelligenz.

Verwandte Themen