ChatGPT & Co im Büro: Guidelines für den Einsatz von Künstlicher Intelligenz (KI) im Unternehmen

ChatGPT & Co im Büro: Guidelines für den Einsatz von Künstlicher Intelligenz (KI) im Unternehmen

von RA Mag. Stefan Humer

Seit mittlerweile mehr als einem Jahr sind KI-Anwendungen, wie allen voran ChatGPT, in unserem Alltag angekommen und spielen eine immer wichtigere Rolle. Das gilt nicht nur für den privaten Bereich, sondern auch für die Arbeitswelt. Der Einsatz von KI-Anwendungen bringt zweifellos Vorteile. Er birgt aber auch Risiken, gegen die sich Unternehmen absichern sollten. Der folgende Beitrag beschreibt, wie das gelingen kann.

 

Die Vorteile von Künstlicher Intelligenz im Betrieb

Die Vorteile sind gut bekannt: KI-Anwendungen haben ein enormes Potential für Effizienzsteigerungen. Bestimmte Aufgaben können von der KI automatisiert übernommen werden, wodurch Ressourcen frei werden und an anderer Stelle gewinnbringend eingesetzt werden können. Es ist daher gut nachvollziehbar, dass in vielen Unternehmen Mitarbeiter gerne zu KI-Tools wie ChatGPT greifen. Genauso verständlich ist es, dass Unternehmen das unterstützen wollen. Was daher auf den ersten Blick nach einer Win-Win-Situation klingt, stellt sich bei genauerer Betrachtung als große Herausforderung für Unternehmen dar.

 

Die Risiken von KI-Anwendungen in Unternehmen

Es bestehen nämlich zahlreiche Risiken, die für Unternehmen mit dem Einsatz von KI-Anwendungen durch Mitarbeiter im Arbeitsalltag verbunden sein können. Zu beachten sind insbesondere die folgenden:

 

• Ungewollte Verbreitung sensibler Informationen:

Informationen und Daten, die Mitarbeitern in KI-Anwendungen eingegeben, werden dem KI-Anbieter (und womöglich auch weiteren Dritten) zugänglich. Besonders problematisch wäre es, wenn Mitarbeiter auf diesem Weg Geschäftsgeheimnisse oder sensible (personenbezogene) Kundendaten preisgeben. Das könnte zu erheblichen Nachteilen für das betroffene Unternehmen und einer Verschlechterung der Wettbewerbsposition führen.

 

• Blindes Vertrauen auf die Ergebnisse der KI:

Der Output von KI-Tools liest sich regelmäßig sehr überzeugend. Die Versuchung, der KI zu vertrauen und keine eigene inhaltliche Überprüfung vorzunehmen ist daher groß. Aber: KI halluziniert! Damit gemeint sind objektiv falsche Ergebnisse der KI, die aber so „selbstbewusst“ formuliert sind, dass es schwerfällt, sie nicht einfach zu übernehmen. Erteilt ein Unternehmen deswegen zB eine falsche Auskunft an einen Kunden, kann dies zu einer Haftung führen.

• Urheberrechtsverletzungen:

Die Ergebnisse des KI-Tools können noch aus einem anderen Grund Schwierigkeiten verursachen. Welche Antworten das KI-Tool gibt, hängt sehr stark davon ab, mit welchen Daten es trainiert wurde. Wurde die KI mit urheberrechtlich geschützten Inhalten trainiert, kann es sein, dass die ausgeworfenen Ergebnisse Rechte Dritter verletzen. Ob dies der Fall ist, kann von Mitarbeitern, die das KI-Tool einsetzen, oft nicht (leicht) festgestellt werden. Übernehmen sie dennoch diese Inhalte und integrieren sie in die eigenen Arbeitsergebnisse, setzen sie das Unternehmen einem Haftungsrisiko aus.

• Vorsicht auch beim Coden:

Insbesondere ChatGPT kann auch beim Schreiben von Code behilflich sein. Werden im Unternehmen Programmierungsleistungen erbracht und greifen die Programmierer dabei auf ein KI-Tool zurück, ist zu beachten, dass kein Urheberrechtsschutz für von Künstlicher Intelligenz erzeugte Schöpfungen entsteht. Das betrifft nicht nur Programmcode, sondern auch sonstige KI-generierte Texte oder Bilder.

 

Rechtzeitig vorsorgen durch eine unternehmensinterne AI Policy

Eine gute Möglichkeit, um diese Risiken zu reduzieren sind interne Guidelines, die an die Mitarbeiter ausgeben werden und klare Vorgaben zur Nutzung von KI-Tools für berufliche Zwecke enthalten, z.B.:  in Form eines Verbots von (bestimmten) KI-Anwendungen oder Regelungen für eine erlaubte Verwendung. Damit kann das Risiko, dass sich die genannten Nachteile verwirklichen, verringert werden. Situationsabhängig kann damit gleichzeitig versucht werden, das Potential für mehr Innovation und Effizienzsteigerung nicht gänzlich im Keim zu ersticken. Obwohl dies einen Balanceakt erfordert, sollte eine solche AI-Policy in keiner unternehmensinternen KI-Strategie fehlen.

Als Experten im Bereich der neuen Technologien unterstützen wir Sie gerne bei der Ausarbeitung einer umfassenden KI-Strategie.  Kontaktieren Sie, wenn Sie Fragen dazu oder darüber hinaus zur Rechtslage rund um Künstliche Intelligenz haben. Wir freuen uns auf Ihre Kontaktaufnahme!

Hier steht Ihnen der Text zum Download als PDF zur Verfügung:

Stefan Humer ist Rechtsanwalt bei CHG Czernich Rechtsanwälte Wien.

Mag. Stefan Humer