NR-Kurier
Ihre Internetzeitung für den Kreis Neuwied
Nachricht vom 16.12.2025
Wirtschaft
Warum der AI Act Berufsgeheimnisse zum zentralen Compliance-Thema macht
ANZEIGE | Hinweis: Dieser Artikel ist für ein erwachsenes Publikum bestimmt und behandelt Themen (beinhaltet ggf. Links), die sich an Personen ab 18 Jahren richten. Mit dem EU AI Act hat die Europäische Union erstmals einen umfassenden, verbindlichen Rechtsrahmen für den Einsatz Künstlicher Intelligenz geschaffen, der auch in der Region Neuwied-Rhein für Aufmerksamkeit sorgt. Die Verordnung ist im Sommer 2024 in Kraft getreten und wird schrittweise bis 2026 vollständig anwendbar. Ihr Anspruch geht weit über klassische Technikregulierung hinaus. Sie betrifft nicht nur Entwickler und große Plattformbetreiber, sondern auch Unternehmen, Verwaltungen und freie Berufe, die KI-Systeme im Alltag einsetzen.
AI generated ImageGerade für Berufsgruppen mit besonderen Verschwiegenheitspflichten markiert der AI Act einen Einschnitt. Anwaltskanzleien, Steuerberater, Wirtschaftsprüfer, Ärzte, Psychotherapeuten, Gutachter oder Personalabteilungen arbeiten täglich mit sensiblen Informationen. In diesen Bereichen ist der Schutz von Geheimnissen nicht nur eine Frage der Datensicherheit, sondern Teil der beruflichen Identität und rechtlichen Verpflichtung.

Der Einsatz von KI verspricht Effizienz, Entlastung und neue Analysefähigkeiten. Gleichzeitig entstehen neue Risiken, weil moderne KI-Anwendungen häufig cloudbasiert sind, externe Recheninfrastrukturen nutzen oder Daten für Trainings- und Optimierungszwecke verarbeiten. Damit geraten klassische Berufspflichten in ein Spannungsfeld mit digitalen Werkzeugen, deren Funktionsweise für Nutzer nicht immer vollständig transparent ist.

Der risikobasierte Ansatz des AI Act und seine Bedeutung
Der AI Act folgt einem klaren Prinzip. Nicht jede Künstliche Intelligenz ist gleich problematisch. Entscheidend ist das Risiko, das ein KI-System für Grundrechte, Sicherheit und gesellschaftliche Interessen darstellt. Auf dieser Grundlage unterscheidet die Verordnung zwischen verbotenen Praktiken, Hochrisiko-Systemen und Anwendungen mit besonderen Transparenzpflichten.

Für die Praxis ist dabei vor allem die Rolle des Anwenders relevant. Unternehmen und Kanzleien sind in der Regel nicht Anbieter von KI-Systemen, sondern Betreiber, die bestehende Lösungen einkaufen und in ihre Abläufe integrieren. Genau hier setzt der AI Act an. Er verlangt, dass KI-Systeme nur entsprechend ihrer Zweckbestimmung eingesetzt werden, dass Mitarbeiter geschult sind und dass eine angemessene menschliche Aufsicht sichergestellt wird.

Besonders hoch sind die Anforderungen bei sogenannten Hochrisiko-Systemen. Dazu zählen unter anderem KI-Anwendungen in der Personalauswahl, bei Kreditentscheidungen, in der medizinischen Diagnostik oder in Bereichen, in denen automatisierte Bewertungen erhebliche Auswirkungen auf Einzelpersonen haben können. Wer solche Systeme nutzt, muss organisatorische Maßnahmen etablieren, Risiken dokumentieren und den Einsatz kontinuierlich überwachen.

Auch wenn viele Kanzleien oder mittelständische Betriebe keine Hochrisiko-KI einsetzen, entfaltet der AI Act eine indirekte Wirkung. Er setzt neue Standards für Sorgfalt, Dokumentation und Verantwortlichkeit. Damit wird der Einsatz von KI zu einer Management- und Governance-Frage, nicht nur zu einer technischen Entscheidung.

In mehreren Branchen wird Künstliche Intelligenz bereits heute erfolgreich eingesetzt, ohne dass dabei typische Hochrisiko-Konstellationen im Sinne des AI Act entstehen. Dazu zählt unter anderem der Online-Glücksspielsektor, in dem KI im Online Casino ohne OASIS zur Betrugsprävention und zur Erkennung technischer Auffälligkeiten eingesetzt wird.

Dabei analysieren KI-gestützte Systeme große Mengen an Transaktionsdaten, Spielmustern und Systemereignissen in Echtzeit, um Unregelmäßigkeiten frühzeitig zu identifizieren.

Im Fokus stehen dabei weniger individuelle Spielentscheidungen einzelner Nutzer als vielmehr strukturelle Anomalien, etwa ungewöhnliche Zugriffsmuster, automatisierte Spielabläufe oder technische Abweichungen, die auf Manipulationsversuche oder Sicherheitslücken hindeuten könnten.

Die KI fungiert in diesen Szenarien als Frühwarnsystem, das Auffälligkeiten markiert und an menschliche Kontrollinstanzen weiterleitet. Die abschließende Bewertung und etwaige Maßnahmen bleiben in der Regel beim Betreiber oder bei spezialisierten Sicherheitsteams.

Vergleichbar etabliert ist der Einsatz im E-Commerce, etwa bei Produktempfehlungen, Lagerplanung oder Preisoptimierung, sowie in der Industrie, wo KI in der Qualitätskontrolle, Wartungsprognose und Produktionsoptimierung eingesetzt wird. In all diesen Bereichen wirkt KI unterstützend und prozessorientiert, sodass die vom AI Act adressierten grundrechtsrelevanten Risiken regelmäßig nicht im Vordergrund stehen. Doch in anderen Branchen ist das Ganze komplizierter.

Geheimnisschutz und Verschwiegenheitspflichten mit der KI
Der Schutz von Berufsgeheimnissen ist im deutschen Recht tief verankert. Für viele freie Berufe gehört die Verschwiegenheit zu den grundlegenden Berufspflichten. Sie schützt Mandanten, Patienten oder Auftraggeber und bildet die Grundlage für Vertrauen. Strafrechtlich wird dieser Schutz durch Vorschriften flankiert, die das unbefugte Offenbaren fremder Geheimnisse unter Strafe stellen.

Diese Pflichten enden nicht beim einzelnen Berufsträger. Auch Mitarbeiter, freie Mitarbeitende und externe Dienstleister müssen organisatorisch eingebunden und zur Verschwiegenheit verpflichtet werden. In der analogen Welt ließ sich diese Verantwortung vergleichsweise klar abgrenzen. Mit KI-Systemen verschwimmen die Grenzen, weil Datenverarbeitung häufig außerhalb der eigenen Organisation stattfindet.

Eine zentrale Frage lautet daher: Werden durch die Nutzung von KI personenbezogene oder vertrauliche Informationen an Dritte weitergegeben, ohne dass dies kontrolliert oder rechtlich abgesichert ist? Besonders problematisch sind Anwendungen, bei denen unklar bleibt, ob eingegebene Daten gespeichert, weiterverwendet oder für Trainingszwecke genutzt werden.

Der AI Act adressiert diese Problematik nicht direkt über klassische Geheimnisschutznormen, sondern über Governance-Anforderungen. Betreiber müssen nachvollziehen können, wie ein System arbeitet, welche Daten es verarbeitet und welche Risiken bestehen. Hinzu kommen Pflichten zur Protokollierung und Dokumentation. Gerade diese Anforderungen können in Berufsgeheimnis-Konstellationen sensibel sein, weil zusätzliche Datenbestände entstehen, die ihrerseits geschützt werden müssen.

Damit entsteht ein neuer Balanceakt. Einerseits verlangt der Gesetzgeber mehr Transparenz und Nachvollziehbarkeit im KI-Einsatz. Andererseits dürfen diese Maßnahmen nicht selbst zum Risiko für vertrauliche Informationen werden. Für viele Organisationen wird es daher notwendig, klare interne Regeln für den KI-Einsatz zu definieren und bestimmte Anwendungen bewusst auszuschließen.

Neue Risiken für Organisation und Leitung
Ein zentrales Element des AI Act ist das Sanktionsregime. Die Verordnung sieht empfindliche Bußgelder vor, die sich an der Schwere des Verstoßes und am Umsatz des Unternehmens orientieren. Dabei geht es nicht nur um vorsätzlichen Missbrauch, sondern auch um organisatorische Versäumnisse.

Für die Praxis bedeutet das, dass Haftungsrisiken weniger durch einzelne Fehlentscheidungen einer KI entstehen, sondern durch mangelhafte Prozesse. Wer keine klare Zuständigkeit definiert, keine Schulungen durchführt oder den Einsatz von KI-Systemen nicht dokumentiert, setzt sich einem erheblichen Risiko aus.

Neben den aufsichtsrechtlichen Sanktionen bleibt die klassische zivilrechtliche Haftung bestehen. Wenn durch den Einsatz von KI ein Schaden entsteht, etwa durch fehlerhafte Beratung, falsche Auswahlentscheidungen oder Verletzungen von Persönlichkeitsrechten, greifen weiterhin nationale Haftungsregeln. Der AI Act ersetzt diese nicht, sondern ergänzt sie.

Der EU AI Act zeigt damit eine klare Richtung auf. Künstliche Intelligenz soll genutzt werden, aber nicht unkontrolliert. Berufsrecht, Geheimnisschutz und Haftung werden nicht verdrängt, sondern neu justiert. Für Unternehmen und freie Berufe bedeutet das mehr Verantwortung, aber auch die Möglichkeit, technologische Innovation auf einer rechtlich und ethisch tragfähigen Grundlage zu gestalten. (prm)

Hinweis zu den Risiken von Glücksspielen:
Glücksspiel kann süchtig machen. Spielen Sie verantwortungsbewusst und nutzen Sie bei Bedarf Hilfsangebote wie die Suchtberatung (Link: Bundeszentrale für gesundheitliche Aufklärung - Glücksspielsucht).
Nachricht vom 16.12.2025 www.nr-kurier.de