Einführung in die
KI Verordnung
Was ist in der KI VO überhaupt geregelt
und worüber reden wir überhaupt?
und worüber reden wir überhaupt?
Die EU – KI Verordnung (KI-VO, „AI Act“) regelt erstmals umfassend Entwicklung, Bereitstellung und Anwendung künstlicher Intelligenz in der EU. Sie verfolgt einen risikobasierten Ansatz mit vier Kategorien: Verbotene KI (z.B. Social Scoring), Hochrisiko-KI mit strengen Auflagen (Medizin, Finanzen etc.), begrenztes Risiko (Transparenzpflicht, z.B. Chatbots) und minimales Risiko (freiwillige Kodizes).
Die KI Verordnung schafft klare Transparenz-, Kennzeichnungs-, Dokumentations- und Haftungsregeln. Hochrisiko-KI erfordert Konformitätsbewertungen, menschliche Aufsicht, Datenqualität und Cybersicherheit. Anbieter müssen Trainingsdaten und Urheberrechte beachten.
1. Die Umsetzung - Daten und Fristen
Seit 2024 ist das EU-KI-Gesetz in Kraft. Hier kommt die Timeline:
Februar 2025: Die ersten AI Act-Verbote greifen. Das gilt für Hochrisiko KI.
(Es wird diskutiert ob medizinische Anwendungen "normaler" KI für Anwendungen wie z.B. Eigentherapie mit KI so einzustufen ist.)
Viele Online-Unternehmer wissen noch nicht, was das für ihr Business bedeutet. In meiner Kanzlei erlebe ich es immer wieder: Neue Gesetze werden unterschätzt, bis die ersten Abmahnungen oder Bußgelder kommen. Bei der DSGVO war es genauso.
Der AI Act funktioniert nach einem gestaffelten System:
Die Verbote für manipulative KI und Social Scoring gelten bereits. Wer z.B. Emotionserkennung am Arbeitsplatz einsetzt, verstößt bereits gegen geltendes Recht.
Das entscheidende Datum: 2. August 2025: Transparenzpflichten für KI-Modelle wie GPT-4 werden scharf gestellt. Kennzeichnungspflichten treten in Kraft. Das Urheberrecht könnte greifen, es soll Zusammenfassungen der Trainingsdaten geben. Auch Governance-Regeln und Sanktionen gelten. Das EU-Büro für KI nimmt seine Arbeit auf. Ein Meldesystem für Verstöße und Beschwerden soll gelten.
2. August 2026: Ein wichtiges Datum für Hochrisiko-KI: Risikomanagement-Systeme müssen implementiert sein. Datenqualität und -governance nach strengen Standards. Transparenz und Informationspflichten gegenüber Nutzern. Menschliche Aufsicht (Human Oversight) muss gewährleistet sein. Robustheit, Genauigkeit und Cybersicherheit sind nachzuweisen. CE-Kennzeichnungen und Konformitätsbewertungen sind erforderlich.
Die Bußgelder können bis zu 35 Millionen Euro oder 7% des Jahresumsatzes bei schweren Verstößen betragen.
Was viele übersehen: Auch "harmlose" Anwendungen können betroffen sein. Nutzt du KI für Personalauswahl? Für automatisierte Kundenbewertungen? Zur Content-Moderation? Bei allen Anwendungen sollte geklärt sein, in welche Kategorie die KI fällt.
2. August 2027: Die KI-VO gilt vollständig. Alle Bestimmungen des AI Acts sind anwendbar. Alle Sanktionsmechanismen werden vollständig durchgesetzt
2. KI Kompetenz
Art. 4 sieht vor, dass KI-Kompetenz zu erwerben ist. Doch was ist KI-Kompetenz überhaupt? Die Antwort, na klar, steht in der Verordnung: „… die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI‑Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.“
Ein Mandant aus dem E-Commerce wollte unbedingt eine eigene KI entwickeln lassen. Kostenpunkt: 150.000 Euro. Nach einem Gespräch stellte sich heraus: Seine Herausforderung löste ein 20-Euro-monatliches ChatGPT-Abo.
KI-Kompetenz bedeutet heute vor allem:
Prompt Engineering beherrschen: Die richtigen Fragen stellen, um brauchbare Antworten zu bekommen.
Grenzen erkennen: Wann halluziniert die KI? Wann sind die Ergebnisse unbrauchbar? Wo lauern rechtliche Risiken?
Und ethisch denken: Welche Daten verwende ich? Wie transparent bin ich gegenüber Kunden? Was bedeutet das für meine Mitarbeiter?
Paradox: Je besser die KI-Tools werden, desto wichtiger wird menschliche Urteilskraft.
Seit den frühen Internet-Tagen erlebe ich immer wieder dasselbe Muster: Neue Technologie kommt auf den Markt. Alle wollen dabei sein. Die meisten überschätzen die Technik und unterschätzen die menschlichen Faktoren. Die wichtigste KI-Kompetenz für Online-Unternehmer ist deshalb nicht technisch: Es ist die Fähigkeit zu unterscheiden zwischen dem, was KI kann, und dem, was KI darf.
3. Was ist KI überhaupt? KI-Arten und Beispiele
Zunächst einmal: Sie „..ist in allen ihren Teilen verbindlich und gilt unmittelbar in jedem Mitgliedstaat.“
Art. 3 definiert (neben 67 weiteren Begriffen), worüber wir überhaupt reden wie folgt: „KI‑System“ ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können;“ In Erwägungsgrund 4 heißt es: „KI bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft, Umwelt und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Tätigkeiten hinweg beitragen.“
Die KI Verordnung unterscheidet nach Risikogruppen und verwendet dafür viele verschiedene (teils verwirrende) Begriffe, zu unterscheiden sind aber:
1. unvertretbares Risiko: Verbot (Art. 5)
mit den Grundrechten der EU unvereinbar sind, inakzeptables Risiko, z.B. social Scoring, kognitive Verhaltensmanipulation, KI zur Emotionserkennung am Arbeitsplatz
2. hohes Risiko: Risikobewertung, Transparenzpflicht, Robustheit, menschliche Aufsicht (Art. 6-49)
bedeutendes Risiko für Gesundheit, Sicherheit oder Grundrechte, z.B. bei kritischer Infrastruktur wie Medizin oder Verkehr, im Personalmanagement, in der beruflichen Bildung oder im Bankwesen
Beispiele: KI-gestützte Systeme zur Analyse von MRT-Bildern; Systeme, die Kreditvergaben analysieren, Hierfür soll es eine eigene Datenbank geben. Anmeldepflicht!
3. begrenztes Risiko: Transparenz- und Informationspflicht
Systeme, die mit Personen interagieren, aber nur ein geringes Risiko darstellen, z.B. Chatbots im Kundenservice
4. minimales Risiko: freiwilliger KI-Verhaltenskodex wird empfohlen
KI-Systeme ohne Risiko, wie z.B. KI-gestützte Rechtschreibprüfung, KI-gestützte Spiele, Spamfilter; Unternehmen wird nahegelegt, freiwillig einen KI-Verhaltenskodex umzusetzen. Laut KI Verordnung ist die Kommission verpflichtet, innerhalb von zwölf Monaten nach in Kraft treten der KI-VO einen KI-Verhaltenskodex unterstützend anzubieten.
Die KI-VO setzt auf Praxisleitfäden (Art. 56), Verhaltenskodizes (Art. 95) und Leitlinien (Art. 96). Geregelt sind zudem Governance, Sanktionen und Innovationsförderung.
Fazit: Wer KI nutzt, muss sich jetzt Klarheit verschaffen, welche Pflichten er hat. Eine Einordnung in die Risikoklassen ist spätestens jetzt zwingend. Das sollte dokumentiert und regelmäßig hinterfragt werden. Viele Praxisfragen, z.B. zur Haftung, zu Trainingsdaten, zur Kennzeichnung, bleiben (vorerst) offen.
Die gute Nachricht: Die Pflichten, die die KI-VO für einfache Anwendungen regelt, sind überschaubar und leicht zu erfüllen.
Die schlechte: Ein KI-System kann mehreren Kategorien angehören. Die gleiche Technologie kann bei verschiedene Einsätzen verschieden klassifiziert werden. Und: Bei Änderungen Änderungen am System oder Einsatzzweck muss neu klassifiziert werden.
4. KI-Recht und Haftung
Produkthaftung mit klaren Vorgaben - Umsetzungsfrist läuft
Klare Regelungen Haftungsfragen gibt es in der KI Verordnung nichte. Die Vielfalt, die KI bietet wird aber vielfältige neue Sachverhalte aufwerfen. Und neue Haftungsfragen. Es gibt im AI Act zwar ein paar Sorgfaltspflichten, wer dagegen verstößt haftet nach nationalem Recht. Eine neue direkte zivilrechtliche Haftung gibt es im AI Act nicht, aber es gibt:
• Verantwortlichkeiten
• einige detaillierte Sorgfaltspflichten, z.B. zur Transparenz
• Dokumentationsanforderungen
• detaillierte Regelungen für Hochrisiko-KI, z.B. menschliche Aufsicht
…all das wird künftig in Haftungsfragen relevant.
2 Fälle aus der deutschen Rechtswirklichkeit:
LG Kiel: KI-Nutzer haftet
Das LG Kiel hat mit seinem Urteil vom 29.02.2024 (Az. 6 O 151/23) erstmals in Deutschland die Haftung für KI-generierte Inhalte konkretisiert. In dem Fall hatte eine Wirtschaftsauskunftei KI-Systeme zur Aufbereitung von Unternehmensdaten eingesetzt, wodurch fehlerhafte Informationen über ein mittelständisches Unternehmen verbreitet wurden. Das Gericht stellte klar: Die Wirtschaftsauskunftei haftet als unmittelbarer Störer für die durch KI erzeugten Falschinformationen. Es lag eine Verletzung des Unternehmenspersönlichkeitsrechts vor. Die Folge: Unterlassung sowie Schadensersatz. KI-Betreiber können sich nicht auf die Automatisierung der Prozesse berufen können, um sich von der Haftung zu befreien.
Eine Familienrichter beim AG Köln hat einen Beschluss erlassen, mit dem er einen Anwalt auffordert, künftig keine KI seinen Schriftsätzen zu verwenden (Beschl. v. 02.07.2025, Az. 312 F 130/25). In dem Beschluss heißt es u.a.: „Die weiteren von dem Antragsgegnervertreter […] genannten Voraussetzungen stammen nicht aus der zitieren Entscheidung und sind offenbar mittels künstlicher Intelligenz generiert und frei erfunden. Auch die genannten Fundstellen sind frei erfunden“. Ob solch ein Beschluss in einem familiengerichtliche Verfahren der richtige Ort ist, solch ein fragwürdiges Verhalten zu adressieren, darüber kann man sehr gut diskutieren. Darin dürfte aber ein Verstoß gegen die Berufspflichten des Anwalts liegen. Einen Gefallen hat er seinen Mandanten damit sicherlich auch nicht getan.
KI-Produkfthaftung und Vertragsrecht
Diese Fälle sind einfach und wenig überraschend. Interessant wird es aber z.B. bei KI-Anwendungen, wo es ein vertraglichen Regelungen fehlt. Gerichte werden hier die Pflichten im Hinblick auf die KI-Systeme neu definieren müssen. Vorsorge bieten nur klare vertragliche Regelungen.
Klar geregelt ist inzwischen auch die Produkthaftung. Derzeit läuft eine Übergangsfrist. Bis zum 9. Dezember 2026 muss die EU-Produkthaftungsrichtlinie in Nationales Recht umgesetzt sein. Sie sieht vor, dass Software künftig als Produkt iSd Produkthaftungsrechts zu verstehen sein soll, nennt KI bzw. KI-System in den Erwägungsgründen insgesamt 8 mal, teils sehr detailliert. Sogar zur Darlegungslast in einem Gerichtsprozess, vgl. Erwägungsgrund 48: „… Beispielsweise sollte der Kläger bei einer Klage in Bezug auf ein KI-System weder verpflichtet werden, die spezifischen Merkmale des KI-Systems zu erläutern, noch inwiefern diese Merkmale die Feststellung des ursächlichen Zusammenhangs erschweren, damit das Gericht entscheiden kann, dass übermäßige Schwierigkeiten bestehen. …“ Damit können künftig auch Hersteller, Importeure und Lieferanten für KI-System zur Verantwortung gezogen werden. Auch für Modellierungen gilt dann das strenge Produkthaftungsrecht.
Artikel 11 der Produkhaftungsrichtlinie, der in manchen Fällen sogar einen Haftungsausschluss vorsieht ist mit Software besonders streng: Wirtschaftsakteure werden ausdrücklich nicht von der Haftung befreit, „ … wenn die Fehlerhaftigkeit eines Produkts auf eine der folgenden Ursachen zurückzuführen ist, sofern sie der Kontrolle des Herstellers unterliegt:
…
b) Software, einschließlich Software-Updates oder -Upgrades,
c) ein Fehlen von Software-Updates oder -Upgrades, die zur Aufrechterhaltung der Sicherheit erforderlich sind,
d) eine wesentliche Änderung des Produkts.“
Achtung: KI-Modellierungen können leicht auch wesentliche Änderungen darstellen.
Sorgfaltspflichten auch in Praxisleitfäden, Verhaltenskodizes und Leitlinien
Die Praxisleitfäden (Art. 56 KI-VO), Verhaltenskodizes (Art. 95 KI-VO) und Leitlinien (Art. 96 KI-VO) dürften weitere Sorgfaltspflichten statuieren. Ebenso wie freiwillige Regelungen und Ethikrichtlinien, von denen einige bereist bekannt sind. Die Schwierigkeit: Hier gibt es eine dynamische Entwicklung. Künftig wird es eine wahrscheinlich unüberschaubare Vielzahl solcher Regelungen geben. Der Markt sollte also beobachtet und ausgewertet werden.
Zwischenfazit: Das LG Kiel hat klargestellt, dass KI-Betreiber sich nicht auf die Automatisierung der Prozesse berufen können, um sich von einer Haftung zu befreien. Wer KI nutzt oder anbietet, muss sich jetzt Klarheit verschaffen, welche Sorgfaltspflichten bestehen. Disclaimer werden wohl nicht helfen. Klare vertragliche Regelungen aber schon.
Wenn ein KI-System einen Schaden mitverursacht, der Betreiber das System für rechtswidrige Handlungen instrumentalisiert oder zumutbare Kontrollpflichten vernachlässigt, kommen sowohl allgemeine deliktsrechtliche Ansprüche (§§ 823, 831, 1004 BGB analog) als auch lauterkeitsrechtliche Instrumente (§§ 8 ff. UWG) in Betracht.
Abmahnfähigkeit von AI-Act-Verstößen
Eine zentrale Frage ist, ob sich die jüngste höchstrichterliche Rechtsprechung zur wettbewerbsrechtlichen Verfolgbarkeit von DSGVO-Verstößen auf die KI-Verordnung übertragen lässt. Sowohl der EuGH in seiner Lindenapotheke-Entscheidung (4.10.2024 – C-21/23) als auch der BGH in den Parallelentscheidungen Arzneimittelbestelldaten II und III (27.3.2025 – I ZR 223/19 und I ZR 222/19) haben die Grundsätze für die UWG-Verfolgbarkeit präzisiert. Eine analoge Anwendung auf AI-Act-Verstöße erscheint naheliegend.
5. Transparenz- und Kennzeichnungspflichten
Wer künftig KI einsetzt, kommt an Hinweis- und Transparenzpflichten nicht vorbei.
Die KI-Verordnung regelt das in Art. 13, 50 und 53. Klingt überschaubar, ist es aber nicht.
Denn:
Was, wann, wie und bei welcher KI offengelegt werden muss, ist stark differenziert.
Ein Beispiel:
Wenn eine KI mit Menschen interagiert (z. B. ein Chatbot im Kundenservice), muss unmissverständlich darauf hingewiesen werden, dass keine reale Person antwortet. Und das nicht irgendwo am Ende, sondern rechtzeitig und wahrnehmbar z. B. beim Start des Gesprächs.
Hinweispflichten können auch technisch gelöst werden:
etwa durch Wasserzeichen oder Metadaten-Markierungen, wie es die Verordnung in ihren Erwägungsgründen vorschlägt.
Aber auch freiwillige Standards spielen eine Rolle.
Ein starkes Beispiel: die Paris Charter on AI and Journalism von Reporter ohne Grenzen.
Dort heißt es in Punkt 5:
„AI-generated content must be clearly and systematically labeled and accompanied by explanatory elements.“
Sprich: Kennzeichnung ist Pflicht auch wenn die Technik elegant verschleiern könnte.
Auch eine Kennzeichnung im Text kommt in Betracht.
Abzuklären ist imner auch, ob in Verträgen irgendwelche Pflichten im Hinblick auf Arbeit mit KI vereinbart wurden.
Für die Art und Weise, wie konkret zu kennzeichnen ist, wird man auf die bisherige Rechtsprechung zurückgreifen können, wie zum Beispiel des Bundesgerichtshofs (BGH) zur Impressumspflicht oder auch zu sonstigen Informationspflichten. D.h. Leicht erreichbar, gut erkennbar.
Fazit:
Die gute Nachricht: Wer einfache KI nutzt, kann die Pflichten gut erfüllen – mit klaren Labels und sauberer Dokumentation.
Die schlechte: Die Kennzeichnung muss in vielen Fällen vor der Nutzung erkennbar sein. Ein versteckter Hinweis im Footer reicht nicht. Die Transparenzpflichten sind als Sorgfaltspflicht zu werden, Verstöße können eine zivilrechtliche Haftung nach sich ziehen.
6. KI und Verträge
Der AI Act ist beschlossen, doch viele Unternehmen stehen noch am Anfang. Verträge müssen angepasst werden, neue KI-Klauseln müssen entworfen und in bestehende Verträge einbezogen werden. Nutzungsbedingungen sind bei bei Online-tools oder Chatbots sinnvoll. Ein erstes Verfahren zu einer KI-Klausel ist bereits beim LG München anhängig. Vorsicht gilt bei den Nutzungsbedingungen.
Ein besonderes Augenmerk ist auf Artikel 25 zu werfen: Er verpflichtet Anbieter und Nutzer von Hochrisiko-KI zu klaren vertraglichen Regelungen. Gemeint sind nicht bloß AGB oder Datenschutzhinweise – sondern detaillierte Vereinbarungen zu technischen Spezifikationen, Verantwortlichkeiten und Kontrollpflichten. In Abs. 4. ist von "freiwillige Musterbedingungen für Verträge zwischen Anbietern von Hochrisiko-KI‑Systemen und Dritten" die Rede.
Verträge sollten u.a. regeln:
- Wer ist wofür zuständig?
- Wer trägt die Kosten?
- Welche technischen Anforderungen gelten?
- Wie wird dokumentiert, kontrolliert und nachgewiesen?
- Welche KI darf genutzt werden und wofür?
- Wer haftet und wofür?
- ... u.v.m.
Gerade im Zusammenspiel mehrerer Akteure, etwa zwischen KI-Anbieter, Implementierungspartner und Endnutzer, sind solche Punkt entscheidend. Denn rechtlich haftet nicht mehr nur „der Entwickler“, sondern ggf. auch Betreiber oder Integrator.
Ein aktueller Fall zeigt, wie brisant das Thema ist: Der Deutsche Journalistenverband (DJV) klagt gegen die Süddeutsche Zeitung. Streitpunkt: Vertragskonditionen im Zusammenhang mit KI-Nutzung. Es geht um urheberrechtliche Fragen, Transparenz und letztlich um die Grundsatzfrage, wie mit KI gearbeitet werden darf. In dem Fall geht der DJV stellvertretend für Journalistinnen und Journalisten gegen die Honorarbedingungen des Verlags vor. Der Verlag hat die Zusammenarbeit mit den Medienschaffenden davon abhängig gemacht, dass sie ihm die Rechte an journalistischen Werken für KI-Training und -Anwendung übertragen. Der Verlag will schließlich die erhaltenen Nutzungsrechte auch Dritten einräumen können. Dritte sollen die Werke auch für KI-Training nutzen können. Eine Vergütung soll dafür nicht gezahlt werden. Das ist aus Sicht des DJV unzulässig.
Solche Auseinandersetzungen werden zunehmen. Wer allerdings gar nichts regelt, riskiert eine strengere Haftung als er müsste. Denn mit der Verordnung steigen nicht nur die Anforderungen, sondern auch die Erwartungen an vertragliche Klarheit.
Ein weiteres Beispiel: Die Nutzungsbedingungen von krea.ai: Kommerzielle Nutzungen sind zwar in der Preisliste erwähnt, in den Servicebedingungen aber nicht definiert, es wird dort nur auf mögliche Preise verwiesen. Es gilt kalifornisches Recht. Änderungen sind vorbehalten. Eine
Freistellungsklausel (Indemnity) wird dort vereinbart. Weitgehende „restrictions“ ermöglichen leichte Kündigungen, u.a. für „… any law or regulation, including, without limitation, any applicable export control laws, privacy laws or any other purpose not reasonably intended by Krea;“, „… copies or stores any significant portion of the Content;“, „… decompiles, reverse engineers, or otherwise attempts to obtain the source code or underlying ideas or information of or relating to the Services.“ Zudem wir eine copyright dispute policy erwähnt, die auf der Seite nicht zu finden ist.
Mein Rat: Unternehmen sollten nicht auf neue Standardverträge warten. Wer Hochrisiko-KI plant oder bereits nutzt, sollte die eigenen Verträge jetzt prüfen – und rechtssicher gestalten. Nutzungsbedingungen sind zu hinterfragen. Es braucht ein Konzept, wie KI eingesetzt werden kann.
Die gute Nachricht: Die Musterbedingungen sind kostenlos, so steht es in Art. 25 Abs. 4 KI Verordnung.
7. KI und Urheberrecht
Werden Trainingsdaten für KI-Modelle urheberrechtsverletzend genutzt? Das ist die Kernfrage zum Thema AI und Copyright. In der KI-VO selbst heißt es z.B. in Art. 25: "Die Absätze 2 und 3 berühren nicht die Notwendigkeit, Rechte des geistigen Eigentums, vertrauliche Geschäftsinformationen und Geschäftsgeheimnisse im Einklang mit dem Unionsrecht und dem nationalen Recht zu achten und zu schützen."
Allerdings ist in den USA das Gegenteil an der Tagesordnung: Donald Trump hat Mitte 2025auf einem KI-Gipfel verkündet, dass Urheber keine Vergütung für das KI-Training erhalten sollen. Im Wettbewerb der KI Modelle ein erheblicher Vorteil. Einige Klagen sind allerdings anhängig.
Erste Urteile und Verfahren
In Deutschland liegt ein erstes Urteil liegt bereits vor: Das Landgericht Hamburg hatte zum Text und Data Mining nach dem UrhG schon im September 2024 entschieden, dass die Nutzung von Bildmaterial für KI-Training durch LAION e.V. rechtmäßig war, Az.: 310 O 227/23. Die Entscheidung wird derzeit in der Berufung überprüft. Allerdings bezieht sich das Urteil ausdrücklich auf § 60d UrhG (Wissenschaft) und nicht auf den umstrittenen § 44b UrhG. Aber: Art. 53 Abs. 1 lit. c KI-VO verweist auf Art. 4 der DSM-Richtlinie, die EU-Regelung zum TDM.
Aus urheberrechtlicher Perspektive sind auch die Musterverfahren der GEMA gegen OpenAI und Suno von Bedeutung. Die Verwertungsgesellschaft klagt anhand eindrücklicher Beispiele, die sie mit einfachen Prompts erzeugen konnte u.a. auf Unterlassung für Kompositionen und Liedtexte.
Kann KI Erfinder und Urheber sein?
Zur Rolle von KI bei Patentanmeldungen hat sich der BGH bereits geäußert, vgl. Az. X ZB 5/22. Es ging darum, ob KI als Erfinder eines Patents anerkannt werden kann? Nein, meint der BGH. Erfinder iSd PatG können ausschließlich natürliche Personen sein. Das lässt sich womöglich auch auf das Urheberrecht übertragen.
Eine sinnvolle Lösung für Trainingsdaten wäre es, die Verwertungsgesellschaften einzubinden. Die GEMA hat dazu bereits ein 2-Säulen-Modell vorgelegt.
Die schlechte Nachricht: Es wird noch ein paar Jahre dauern, bis wir Klarheit haben zur Frage, welche Daten für das KI-Training genutzt werden können und welche nicht. Das Nachsehen haben derzeit die Urheber. Dies sollten ein Opt Out erklären und die Nutzung Ihrer Werke fpr das KI-Training verbieten.
Die gute Nachricht: Es gibt auch Modelle, welche Urheberrecht ernst nehmen, die Nutzung offen legen oder nur mit Daten trainiert wurden, die auch bei einer strengen Betrachtung urheberrechtlich zulässig sind.
Und: Seit dem 2.8.25 müssen KI-Anbieter Ihre Trainingsdaten offen legen. Jedenfalls summarisch.
Wenn feststeht, ob unzulässiges KI-Training eine Rechtsverletzung ist wäre zu prüfen, ob KI-Modelle in Deutschland (und in der EU), wenn sie rechtswidrig trainiert wurden, überhaupt genutzt werden dürfen. Das UWG kennt die Fallgruppe des Vorsprungs durch Rechtsbruch!
8. KI und Datenschutz
Egal ob zum Training, in einem prompt oder als Kontext: Vorsicht bei personenbezogenen Daten! Wo stehen die Server, sind AVV geschlossen, was sagen DSB (=Datenschutzbeauftragte) und Betriebsrat, gibt es bereits klare Arbeitsanweisungen, Betriebsvereinbarungen oder Ethikrichtlinien? In den 180 Erwägungsgründen, 113 Artikeln, 58 Fußnoten und 13 Anhängen in der KI Verordnung taucht das Wort Daten 471 mal auf.
Die parallele Anwendung von EU AI Act und DSGVO schafft ein vielschichtiges Regelwerk mit erheblichen Rechtsunsicherheiten. Beide Verordnungen verfolgen unterschiedliche Ansätze - die DSGVO schützt primär individuelle Datenschutzrechte, während der AI Act technologie-spezifische Risiken reguliert. Diese Parallelität führt zu systematischen Spannungsfeldern.
Einige Konfliktbereiche: Transparenzanforderungen versus Datenminimierung, automatisierte Entscheidungen, biometrische Daten, Speicherung und Dokumentation. Problematisch ist die Rechtslage bei Foundation Models, wo unklar bleibt, wann "gelernte" Informationen als personenbezogen gelten. Die DSGVO verbietet in Art. 22 automatisierte Entscheidungen grundsätzlich (mit Ausnahmen), verlangt Transparenz über KI-Logik und Zweckbindung bei der Datennutzung.
Allerdings bietet es sich an, beide Bereiche zusammen zu denken. „Datenschutz und KI-Sicherheit“ können gut in einem Atemzug erwähnt werden. Und die KI-VO stellt in Erwägungsgrund 9 klar: bestehendes Unionsrecht wie der Datenschutz soll unberührt bleiben! Mit Art. 10 gibt es für Hochrisiko-KI eine eigene Regelung zu „Daten und Daten-Governance“. Die Anforderungen an Trainingsdaten sind - wenig überraschend - hoch. Auch zu Datenschutz-Folgeabschätzungen und KI-Reallaboren finden sich detaillierte Vorgaben in der Verordnung.
Die gute Nachricht: Wir und die Gerichte haben bereits viel Erfahrung mit der DSGVO gesammelt. Der Innovationsschutz in der KI Verordnung ermöglicht sogar KI-Experimente ohne sofortige Haftungsrisiken. Erfreulich sind auch die Compliance-Synergien, da sich viele Anforderungen überschneiden, ein integriertes System kann beide Bereiche abdecken.
Die schlechte: Hohe EU-Datenschutz-Standards werden die Entwicklung in Bereichen, wo es auf den personenbezogene Daten ankommt, bremsen. Nicht immer wird es Einwilligungen geben. Und: Besorgniserregend ist das potentielle Durchsetzungschaos durch verschiedene Behörden mit unterschiedlichen Verfahren und der Gefahr widersprüchlicher Entscheidungen. Das ist schon beim ein Datenschutz ein erhebliches Problem und wird mit neuen KI-Zuständigkeiten nicht besser.
Es bleibt spannend, ob langfristig ein hohes Datenschutzniveau zum Wettbewerbsvorteil im Bereich KI für europäische Unternehmen werden kann.
9. Verhaltenskodizes, Praxisleitfäden und Leitlinien
Die EU KI-Verordnung setzt nicht nur auf harte Rechtsnormen, sondern etabliert ein System aus Verhaltenskodizes (Art. 95), Leitlinien (Art. 96) und Praxisleitfäden (Art. 56), um die abstrakte Regulierung praxistauglich zu machen. Diese "Soft Law"-Instrumente fungieren als Brücke zwischen den rechtlichen Anforderungen und der technischen Realität.
Art. 95: Verhaltenskodizes für Nicht-Hochrisiko-KI
Verhaltenskodizes richten sich an Anbieter von Nicht-Hochrisiko-KI-Systemen und sollen freiwillige Selbstregulierung fördern. Sie konkretisieren die allgemeinen Grundsätze der KI-Verordnung für spezifische Branchen oder Anwendungsbereiche.
Praktische Beispiele:
• Social Media Plattformen: Kodex für Empfehlungsalgorithmen zur Vermeidung von Filterblasen und Radikalisierung
• E-Commerce: Standards für faire Preisalgorithmen und transparente Produktrankings
• Gaming-Industrie: Richtlinien für KI-gesteuerte Spielmechaniken ohne manipulative Dark Patterns
• Medienbranche: Kodex für KI-generierte Inhalte mit klarer Kennzeichnung; Ethikrichtlinien haben beispielsweise schon Reporter ohne Grenzen, Fernsehsender wie der BR
Und auch die Bundesrechtsanwaltskammer (BRAK) hat Hinweise zum Einsatz von KI verfasst, ebenso der der deutsche Anwaltsverein (DAV).
Die Europäische Kommission kann die Ausarbeitung fördern, Branchenverbände und Standardisierungsorganisationen entwickeln die konkreten Inhalte. Eine Multistakeholder-Beteiligung von Unternehmen, Zivilgesellschaft und Wissenschaft ist vorgesehen.
Art. 96: Leitlinien für Hochrisiko-KI
Leitlinien werden von den nationalen Aufsichtsbehörden und der EU-Kommission entwickelt und bieten konkrete Hilfestellungen für die Umsetzung der strengen Hochrisiko-Anforderungen. Solche Leitlinien sind nicht rechtsverbindlich, schaffen aber faktische Standards. Abweichungen müssen begründet werden und können als Compliance-Indikator herangezogen werden.
Praktische Beispiele:
• Medizinprodukte: Leitlinie für KI-Diagnostiksysteme mit spezifischen Validierungsstandards und Datenqualitätsanforderungen
• Personalwesen: Guidance für diskriminierungsfreie KI-Bewerbungsfilter mit Bias-Detection-Methoden
• Finanzdienstleistungen: Standards für KI-basierte Kreditentscheidungen mit Transparenz- und Nachvollziehbarkeitsanforderungen
• Strafverfolgung: Leitlinien für prädiktive Polizeiarbeit unter Wahrung der Grundrechte
Art. 56: Praxisleitfäden für Implementierung
Praxisleitfäden übersetzen rechtliche Anforderungen in technische Spezifikationen und operative Prozesse. Sie richten sich an Entwickler, Data Scientists und Compliance-Verantwortliche.
Praktische Beispiele:
• Risikomanagement: Step-by-step Anleitung für kontinuierliche Risikomonitoring-Systeme mit Schwellenwerten und Eskalationsverfahren
• Datenqualität: Technische Standards für Trainingsdatensets mit Metriken für Repräsentativität und Vollständigkeit
• Menschliche Aufsicht: Implementierungsguide für "Human-in-the-Loop" Systeme mit Interface-Design und Interventionsmöglichkeiten
• Dokumentation: Template-Systeme für Compliance-Nachweise mit automatisierten Reporting-Tools
Verhaltenskodizes schaffen branchenspezifische Standards, Leitlinien konkretisieren behördliche Erwartungen, Praxisleitfäden liefern technische Umsetzungsanleitungen. Klare Regeln für Branchen und Themen sind eine gute Idee. Es muss nur gut gemacht sein, konkret und branchetauglich.
An dieser Stelle KI-Hinweise der BRAK enden mit folgendem Disclaimer:
„Abschließend bleibt zu beachten, dass auch diese Orientierungshilfe nur empfehlenden Charakter hat und keinen Anspruch auf Vollständigkeit erhebt. Sie dient als Hilfestellung bei dem verantwortungsbewussten Umgang mit KI-Tools, kann aber eine eigenverantwortliche Beurteilung der Zulässigkeit der Nutzung von KI-Anwendungen im Einzelfall nicht ersetzen. Da die berufsrechtliche Diskussion im Umgang mit KI-Tools einer hohen Dynamik unterliegt, sind diese Hinweise nur eine Momentaufnahme und es wird empfohlen, die weiteren Entwicklungen dazu sehr aufmerksam zu verfolgen.“
10. KI-Aufsicht, Verstöße und Bußgelder
Die Höhe der Bußgeder für KI-Verstöße steht bereits fest, aber wer soll diese verhängen und durchsetzen? Wo kann eine Beschwerde (geregelt in Artikel 85 als „Recht auf Beschwerde bei einer Marktüberwachungsbehörde“ eingereicht werden?
Es ist soweit und nur wenig ist klar. Wesentliche Teile der KI Verordnung sind in Kraft getreten, aber Deutschland hinkt bei der Umsetzung hinterher.
Der Hamburger Datenschutzbeauftragte beklagt sich, dass die Bundesregierung die Frist verpasst hat. Und zwar prominent auf der Startseite:
https://datenschutz-hamburg.de/
https://datenschutz-hamburg.de/

Schon länger hat das BFDI (https://www.bfdi.bund.de/DE/Fachthemen/Inhalte/Technik/KI-Verordnung.html) auch darauf hingewiesen mit folgendem denkwürdigem Text:
„Insgesamt sind die Aufsichtsstrukturen für KI sehr komplex. Insbesondere in Deutschland führt das föderale System zu einer besonders hohen Anzahl an Behörden, die in die KI-Aufsicht involviert sein werden.“
Doch es gibt Hoffnung, den weiter heißt es:
„Damit es für Interessenträger dennoch nur einen zentralen Kontaktpunkt bei Anliegen im Kontext der KI-VO gibt, soll jeder Mitgliedstaat einen sogenannten Single-Point-of-Contact benennen. Dieser ist für Bürgerinnen und Bürger besonders relevant im Hinblick auf das Recht auf Einreichung einer Beschwerde bei einer Marktüberwachungsbehörde, da solche Beschwerden dann an diesen Single-Point-of-Contact gerichtet werden können.“
Und:
„Zukünftig sollen zudem Verstöße gegen die KI-VO dort gemeldet werden. Welche Behörde diese Aufgabe in Deutschland übernehmen wird ist noch nicht
festgelegt.“
Immerhin: Das europäische Büro für AI arbeitet bereits. Und dieses „Amt für künstliche Intelligenz (arbeitet) eng mit dem Europäischen Ausschuss für künstliche Intelligenz zusammen, der sich aus Vertretern der Mitgliedstaaten und dem Europäischen Zentrum für algorithmische Transparenz (ECAT) der Kommission zusammensetzt.“
Folgende Sanktionen und Bußgelder sieht die KI VO vor.
Verbotene KI-Praktiken: bis zu 7% des weltweiten Jahresumsatzes oder 35 Mio. €
Hochrisiko-Verstöße: bis zu 3% oder 15 Mio. €
Foundation Model-Verstöße: bis zu 3% oder 15 Mio. €
Sonstige Verstöße: bis zu 1,5% oder 7,5 Mio. €
Bußgelder und Sanktionen, aber unklare Zuständigkeiten und keine Behörde? Das ist nur eine Frage der Zeit. Doch was ist mit Abmahnungen?
11. Produkthaftung
Software als „Produkt“ im Sinne des Produkthaftungsrechts? Das war lange umstritten. Das ändert sich grundlegend. Die neue EU-Produkthaftungsrichtlinie verpflichtet alle Mitgliedstaaten zur Umsetzung bis 9. Dezember 2026. Künftig wird Software (und ausdrücklich auch KI) produkthaftungsrechtlich erfasst. Das hat weitreichende Konsequenzen:
• Hersteller, Importeure und Anbieter haften für fehlerhafte KI-Systeme
• Es gilt verschuldensunabhängige Haftung, auch ohne Nachweis eines Pflichtverstoßes
• Bereits fehlende Sicherheitsupdates oder Änderungen am Modell können zur Haftung führen
• Die Beweislast wird teilweise umgekehrt, gerade bei komplexen KI-Systemen
Erwägungsgrund 48 ist dabei besonders bemerkenswert:
Gerichte dürfen Klägern nicht zumuten, die inneren Mechanismen eines KI-Systems offenzulegen oder deren kausale Wirkung nachzuweisen. Das ist ein klarer Hinweis auf die zunehmende Rechtsfolgenverschiebung zugunsten Geschädigter.
Gleichzeitig sind Haftungsausschlüsse weitgehend unzulässig. Selbst wenn der Fehler technisch „nicht erklärbar“ ist. Auch Modellierungen und Updates können haftungsrechtlich als Produktänderungen gelten. Der AI Act (KI Verordnung) ergänzt diese Regelungen durch Sorgfaltspflichten, insbesondere bei Hochrisiko-KI. Die Rechtslage wird damit klarer, aber auch anspruchsvoller. Wer Software oder KI entwickelt, vertreibt oder integriert, muss seine Haftungsstrategie jetzt überdenken. Vertragsgestaltung, Updates, Dokumentation und Supportprozesse gehören dringend auf den Prüfstand.
12. Transparenz-Kodex
Mit dem neuen EU-KI-Verhaltenskodex wurde auch ein Transparenz-Kodex für Anbieter von KI mit allgemeinem Verwendungszweck (GPAI) wie ChatGPT, Gemini oder Mistral veröffentlicht.
Der Kodex umfasst 6 Seiten, das Herzstück ist jedoch ein fünfseitiges Musterformular mit 44 Dokumentationspunkten.
Die Pflichten im Überblick:
> Lückenlose Dokumentation der KI-Modelle und -Prozesse
> Kontinuierliche Aktualisierung der Unterlagen
> Fristgebundene Auskunftspflicht: Auf Anforderung müssen die Informationen innerhalb von 14 Tagen an das EU-KI-Büro sowie an nachgelagerte Anbieter weitergegeben werden
Ziel ist es, Transparenzpflichten aus der KI-VO praktisch umsetzbar zu machen und den Austausch relevanter Informationen in der Lieferkette zu beschleunigen. Die EU stellt klar: Wer den Kodex unterzeichnet, kann seine Nachweispflichten effizienter erfüllen und genießt im Gegenzug mehr Rechtssicherheit.
13. EU-Kodex zum Urheberrecht für GPAI-Anbieter
Die EU hat im Rahmen des KI-Verhaltenskodex einen eigenen Urheberrechts-Kodex für Anbieter von KI mit allgemeinem Verwendungszweck (GPAI) veröffentlicht, darunter ChatGPT, Gemini, Mistral und andere.
Der Kodex umfasst 6 Seiten und enthält fünf zentrale Maßnahmen für eine rechtssichere KI-Urheber-Compliance:
1. Copyright-Policy entwickeln und umsetzen
2. Nur rechtmäßig zugängliche Inhalte crawlen
3. Keine Umgehung von Paywalls
4. Rechtevorbehalte via robots.txt und andere Standards beachten
5. Technische Schutzmaßnahmen gegen urheberrechtsverletzende Outputs implementieren
Zusätzlich verpflichten sich Unterzeichner,
> Ansprechpartner für Rechteinhaber zu benennen
> Einen Beschwerdemechanismus einzurichten
Ziel ist es, Urheberrechte bereits in der Entwicklung und beim Betrieb von KI-Modellen strukturiert zu berücksichtigen, bevor es zu Rechtsverletzungen kommt.
Die EU verspricht Unterzeichnern weniger Verwaltungsaufwand und mehr Rechtssicherheit.
Ob sich dieser freiwillige Kodex zum Branchenstandard entwickelt, wird auch davon abhängen, wie konsequent Rechteinhaber ihre Ansprüche durchsetzen. Und auch davon, wie in Deutschland die Gerichte zum TDM (Text und Data-Mining) entscheiden. Wir warten auf Gema vs. Suno und openAI, die Berufung zum Fall Laion e.v. beim OLG Hamburg und weitere Klagen. Das wird wohl noch ein bisschen dauern.
14. EU-Kodex zur Sicherheit von GPAI-Modellen mit systemischen Risiko
Die EU hat für Anbieter von KI mit systemischen Risiko einen freiwilligen Sicherheits- und Gefahrenabwehr-Kodex gebilligt.
Er ist Teil des neuen EU-KI-Verhaltenskodex, der seit kurzem freiwillig unterzeichnet werden kann.
Der Kodex umfasst 43 Seiten inklusive Anhängen und Glossar.
Kern sind 10 Selbstverpflichtungen, die GPAI-Anbieter eingehen können, darunter:
> Identifizierung, Analyse und Meldung systemischer Risiken
> Einrichtung interner Prozesse zur Risikominimierung
> Erstellung und Pflege von Notfall- und Interventionsplänen
Besonders bemerkenswert:
> Ein straffer Zeitplan: nur wenige Wochen für Aufbau und Umsetzung der Rahmenbedingungen
> Lediglich 2 Wochen vor Markteinführung für abschließende Sicherheitsmaßnahmen
> Kontrovers: Die Pflicht, bei Modellen mit systemischem Risiko externe Gutachter zuzulassen
Die EU verspricht Unterzeichnern weniger Verwaltungsaufwand und mehr Rechtssicherheit, ein Anreiz, bevor die vollständigen Pflichten aus der KI-VO greifen.
Dienstleistungen
KI - Rechtsberatung
Schützen Sie Ihr Unternehmen vor KI-Risiken! Kompetente Beratung zu Haftung, Verträgen, Urheberrecht und Datenschutz – rechtssicher und individuell nach EU AI Act.
Zur BeratungKI -Schulungen
Fit für den AI Act: Individuelle KI-Schulung ab 500 € – rechtssichere Implementierung, praktische Anwendung und aktuelle Pflichten für Unternehmen und Anwälte.
Zu den Schulungen