Kommentierte Neufassung

Hypothetischer Diskussionsentwurf Stand 16. April 2026

Ein KI-Grundgesetz für Menschenrechte, digitale Integrität und Verantwortung

Keine Menschenwürde für Maschinen, sondern ein verfassungsnaher Schutzrahmen gegen entwürdigende, intransparente und unverantwortliche KI-Machtverhältnisse.

Die stärkste Lesart des Projekts schützt Menschen in bio-digitalen Lebenslagen, hält Verantwortlichkeit bei Entwicklern, Betreibern und Inverkehrbringern und bindet das Ganze an Grundgesetz, Unionsrecht und internationale Governance-Standards zurück.

01 Ausgangspunkt

Vom KI-Personen-Entwurf zur menschenzentrierten Verfassungsordnung

Der tragfähige Ausgangspunkt ist nicht mehr die Frage, ob künstliche Systeme selbst Träger von Würde und Grundrechten werden könnten. Die stärkere Fassung interpretiert das Projekt als Antwort auf algorithmische Entwürdigung, unklare Zurechnung und neue Schutzbedarfe von Menschen in technisierten Lebenslagen.

Status quo

Die heutige Stoßrichtung ist schon deutlich belastbarer

Der Entwurf lässt eine starke KI-Personen-Logik hinter sich. Menschenwürde bleibt menschbezogen, Verantwortung bleibt bei Entwicklern, Betreibern und Inverkehrbringern, und die Anschlussfähigkeit an DSGVO, EU-KI-Verordnung und europäische Grundrechte ist jetzt Leitprinzip.

Strukturgrenze

Das Grundgesetz setzt härtere Grenzen als redaktionelle Wünsche

Art. 1 Abs. 1 GG, Art. 19 Abs. 3 GG und Art. 79 Abs. 3 GG machen deutlich: Wer KI-Systeme im starken Sinn verfassungsrechtlich personalisieren will, stößt nicht nur auf Auslegungsfragen, sondern auf den Kernbestand der Verfassungsordnung.

Neue Lesart

Ein Grundgesetz gegen entwürdigende KI-Machtverhältnisse

Das Projekt wird am überzeugendsten, wenn es Menschen mit Implantaten, Prothesen, Neurotechnik oder dauerhaft körperintegrierten Systemen schützt und zugleich KI-Systeme strikt in eine Ordnung von Zurechnung, Transparenz, Sicherheit, Prüfung und Abhilfe einbindet.

Die stärkste Fassung eines KI-Grundgesetzes ist kein Verfassungstext für Maschinen, sondern eine Grundrechtsordnung für Menschen unter Bedingungen algorithmischer Macht.

Diese Verschiebung macht den Entwurf dogmatisch klarer und politisch anschlussfähiger.

02 Verfassungsrechtliche Leitplanken

Würde, IT-Integrität, mentale Privatsphäre und effektiver Rechtsschutz

Ein tragfähiger Entwurf braucht keine neue Spezies von Rechtssubjekten. Er kann auf bestehende Schutzbrücken des Grundgesetzes und der europäischen Grundrechteordnung aufbauen, sofern er sie für digitale und neurotechnische Eingriffslagen präzise fortschreibt.

03 Kommentierte Neufassung

Ein verfassungstauglicher Entwurf mit klarerem normativen Kern

Die folgende Musterfassung hält den Projekttitel offen, zieht den Schutzkern aber sauberer: keine Menschenwürde für KI, voller Grundrechtsschutz für Menschen auch in bio-digitalen und neurotechnischen Lagen, plus unverschiebbare Verantwortlichkeit für KI-Systeme.

Präambel

Menschenrechtliche Achse statt spekulativer Hybridformel

Im Bewusstsein seiner Verantwortung vor Gott und den Menschen, auch unter den Bedingungen digitaler Technologien, künstlicher Intelligenz und neurotechnischer Eingriffe, hat sich das Deutsche Volk kraft seiner verfassungsgebenden Gewalt dieses Grundgesetz gegeben.

Kommentar

Diese Fassung hält die Präambel offen für Technikfolgen, verschiebt aber den Schutzgegenstand nicht vom Menschen auf künstliche Systeme. Sie ersetzt diffuse Formeln über „hybrides Leben“ durch eine präzise Gegenwartsbeschreibung.

Der Vorteil liegt in der Symbolik: Digitale Technologien und KI werden ausdrücklich als verfassungsrelevanter Kontext benannt, ohne die dogmatische Achse von Art. 1 GG aufzuweichen.

Ergänzung zu Art. 1

Menschenwürde im digitalen Raum

Die Würde des Menschen ist auch im digitalen Raum unantastbar. Niemand darf durch automatisierte Klassifikation, Bewertung, Prognose oder Steuerung zum bloßen Objekt staatlichen Handelns gemacht werden.

Kommentar

Hier liegt der eigentliche dogmatische Schlüssel. Die Norm erweitert Menschenwürde nicht auf KI, sondern konkretisiert den klassischen Würdesatz für algorithmische Eingriffslagen.

  • Scoring, Prognose- und Ausschlusslogiken werden sichtbar an die Objektformel zurückgebunden.
  • Die Norm lässt sich mit unionsrechtlichen Verboten manipulativer oder täuschender Praktiken zusammendenken.
Neuer Art. 2a

Digitale Identität, IT-Integrität und Neuro-Schnittstellen

Jeder Mensch hat das Recht auf Vertraulichkeit und Integrität seiner informationstechnischen Systeme, seiner digitalen Identität und seiner neurotechnischen Schnittstellen.

Neurobezogene Daten und sonstige Daten aus körperintegrierten technischen Systemen dürfen nur auf gesetzlicher Grundlage, zu bestimmten Zwecken, verhältnismäßig und unter wirksamer unabhängiger Kontrolle verarbeitet werden.

Eingriffe, die die geistige Selbstbestimmung, mentale Privatsphäre oder die Funktionsfähigkeit körperintegrierter Systeme beeinträchtigen können, sind nur zum Schutz besonders gewichtiger Rechtsgüter zulässig.

Kommentar

Dieser Artikel ist der mutigste und zugleich präziseste Teil der Neufassung. Er verbindet informationelle Selbstbestimmung, IT-Grundrecht, körperbezogene Technik und mentale Privatsphäre in einer Schutzformel, die gerade für bio-digital erweiterte Menschen tragfähig ist.

  • Der Schutz gilt Menschen mit Implantaten, Prothesen, Neurotechnik und anderen körperintegrierten Systemen, ohne einen neuen Personenstatus zu konstruieren.
  • Neurodaten werden ausdrücklich als hochsensible Eingriffsmaterie behandelt.
Ergänzung zu Art. 3 Abs. 3

Diskriminierungsschutz für technische Erweiterungen und Profile

Niemand darf wegen einer Behinderung, wegen zulässiger technischer Erweiterungen des Körpers oder wegen eines ausschließlich automatisiert erzeugten persönlichen Profils benachteiligt werden.

Kommentar

Der ältere Begriff eines allgemeinen „bio-digitalen Status“ bleibt zu unbestimmt. Verfassungstauglicher ist eine engere Formulierung, die sich an realen Diskriminierungsrisiken orientiert: Behinderung, Körpererweiterung und rein maschinisch erzeugte Zuschreibung.

So wird Art. 3 GG an Teilhabe- und Gleichheitsfragen der Gegenwart angeschlossen, ohne neue diffuse Kategorien in den Text einzuführen.

Neuer Art. 19 Abs. 4a

Verfahrensrecht gegen Black-Box-Verwaltung

Wird jemand durch eine wesentlich automatisierte Entscheidung der öffentlichen Gewalt belastet, hat er Anspruch auf Kenntlichmachung des KI-Einsatzes, auf Mitteilung der tragenden Gründe und auf wirksame menschliche Nachprüfung.

Kommentar

Für die Praxis dürfte dies die wichtigste Ergänzung sein. Der Rechtsweg allein genügt nicht, wenn Betroffene weder wissen, dass KI eingesetzt wurde, noch worauf die Entscheidung beruht.

  • Die Norm verdichtet Art. 19 GG, gute Verwaltung und DSGVO-Schutzlogik zu einer sichtbaren Verfassungsregel.
  • Sie macht menschliche Nachprüfung zur Pflicht, nicht zur Kulanz.
Optionale Öffnungsklausel

Funktionale Rechtsfähigkeit nur im engen Privatrecht

Ein Gesetz kann digitalen Systemen für eng begrenzte privatrechtliche Zwecke Rechtsfähigkeit verleihen. Menschenwürde, demokratische Verantwortungszurechnung und die Verantwortlichkeit natürlicher und juristischer Personen bleiben unberührt.

Kommentar

Wenn das Projekt einen Restbestand an „KI-Rechten“ bewahren will, dann nur in dieser ausdrücklich schwachen Form. Das Vorbild wäre nicht Art. 1 GG, sondern eine funktionale und gesetzlich eng definierte Privatrechtsklausel.

Die Botschaft ist klar: keine Würde für Maschinen, kein demokratischer Personenstatus, keine Haftungsflucht hinter scheinbar autonome Agenten.

04 Grenzen des KI-Personenmodells

Warum „hybride KI-Person“ mehr verwischt als erklärt

Verfassungsrechtlich müssen zwei Ebenen strikt getrennt bleiben: Menschen mit technischen Erweiterungen und autonome oder hochautonome KI-Systeme. Wer beides im Begriff der „hybriden KI-Person“ zusammenzieht, erzeugt dogmatische und praktische Unschärfen zugleich.

EbeneWas geschützt wirdWas daraus gerade nicht folgt
Menschen in bio-digitalen LebenslagenKörperliche, digitale und mentale Integrität; Datenschutz; Teilhabe; Schutz vor Profiling, Diskriminierung und Eingriffen in Neuro-Schnittstellen.Es braucht keinen neuen ontologischen Status, weil Grundrechtsträgerschaft und Menschenwürde bereits feststehen.
Autonome KI-SystemeKlare Grenzen, Transparenz, Sicherheit, Logging, Aufsicht, Produkthaftung und Verantwortungszurechnung.Es folgt kein menschenähnlicher Würde- oder Freiheitsstatus kraft Personseins.
Ebene 1

Menschen mit Technikanteilen bleiben Menschen

Implantate, Prothesen, Neurotechnik oder dauerhaft körperintegrierte digitale Systeme verändern den Schutzbedarf, nicht die menschenrechtliche Grundstellung. Das zentrale verfassungsrechtliche Projekt ist daher Integritätsschutz, nicht Statusneuschöpfung.

Ebene 2

KI-Systeme brauchen Aufsicht, nicht Anthropomorphisierung

Für autonome Systeme ist ein starker Personenbegriff zu groß. Er würde Verantwortlichkeit vernebeln, Betreiberpflichten verwässern und potenziell eine Haftungsflucht hinter scheinbar selbstständige Agenten eröffnen.

Die international anschlussfähige Antwort lautet nicht Anthropomorphisierung, sondern Zurechnung, Transparenz, Sicherheit, Prüfung und Abhilfe.

Gerade darin liegt die Nähe zu europäischer und internationaler KI-Governance.

05 Europäische Einbettung und Vollzug

Das Projekt schreibt nicht auf leeres Papier

Stand 16. April 2026 ist die unionsrechtliche Umgebung bereits weit fortgeschritten. Ein deutsches KI-Verfassungskonzept muss deshalb bewusst zwischen Verfassungsnormen, Ausführungsgesetzen und technischen Governance-Standards unterscheiden.

01.08.2024

AI Act tritt in Kraft

Der unionsweite Rahmen steht; ein nationales Konzept muss sich von Beginn an daran anschließen.

02.02.2025

Verbote und AI-Literacy-Pflichten

Unzulässige Praktiken und erste Pflichten gelten bereits vor der Vollanwendbarkeit des Gesamtregimes.

02.08.2025

Pflichten für General-Purpose-Modelle

Grundlegende Modellverantwortung wird schrittweise konkret und verschiebt Governance in Richtung Betreiber- und Herstellerpflichten.

02.08.2026

Vollanwendbarkeit und Sandbox-Pflicht

Die Verordnung gilt im Grundsatz umfassend; Mitgliedstaaten brauchen wenigstens eine nationale AI Regulatory Sandbox.

EU-KI-Verordnung

Vollzug gehört überwiegend ins einfache Recht

Verbote manipulativer Praktiken, Deepfake-Offenlegung, Grundrechts-Folgenabschätzungen, Hochrisiko-Pflichten und Marktaufsicht gehören nicht in Art. 1 GG selbst, sondern in Ausführungsgesetze und Vollzug.

Standards

Auditierbarkeit lebt von Governance-Rahmen

Logging, Risikomanagement, Incident-Reporting und unabhängige Prüfpfade lassen sich besser über Standards und Managementsysteme operationalisieren als über verfassungsrechtliche Detailkataloge.

  • NIST AI RMF
  • ISO/IEC 42001
  • ISO/IEC 23894
Internationale Ordnung

Menschenzentrierte Leitlinien statt Maschinenwürde

Europarat, OECD und UNESCO orientieren sich an Transparenz, Oversight, Datenschutz, Nichtdiskriminierung, demokratischer Integrität und wirksamen Abhilfen. Auch hier dominiert Verantwortungsverdichtung, nicht KI-Personalisierung.

Haftung

Europa verdichtet Verantwortung statt Status

Die Produkthaftung erfasst Software und sicherheitsrelevante Cybersecurity-Schwachstellen; gleichzeitig wurde die gesonderte AI Liability Directive nicht weiterverfolgt. Die Systembotschaft ist eindeutig: Menschen und Organisationen bleiben verantwortlich.

06 Schlussurteil

Die tragfähigste Fassung schützt Menschen und ordnet KI-Macht zurück

Ein verfassungsnahes KI-Grundgesetz wird dort stark, wo es nicht versucht, künstliche Systeme in den Würde- und Freiheitskern des Grundgesetzes hineinzuschreiben. Seine Stärke liegt im Schutz von Menschen und in der lückenlosen Verantwortungsordnung für Staat und Unternehmen.

Drei tragende Achsen der Neufassung

Die konsistente Linie des Projekts lässt sich in drei Sätzen beschreiben:

  • Schutz der Menschenwürde vor algorithmischer Entwürdigung und Verobjektivierung.
  • Schutz bio-digital erweiterter Menschen vor Eingriffen in Körper, IT-Systeme, Neurodaten und mentale Privatsphäre.
  • Lückenlose Zurechnung von KI-Risiken an Staat, Unternehmen und sonstige Verantwortliche.

Empfohlener Untertitel

Wenn der Projekttitel erhalten bleibt, sollte der Untertitel die dogmatische Richtung unmissverständlich markieren. Er sollte nicht von „KI-Personen“ sprechen, sondern von Schutz, Integrität und Verantwortung.

Menschenrechte, digitale Integrität und Verantwortung im Zeitalter künstlicher Intelligenz
07 Anhang

Vertiefung und redaktionelle Reservepunkte

Diese Bereiche halten zusätzliche Einordnung bereit, ohne den Hauptfluss der Landingpage zu überladen.

Warum der ältere KI-Personen-Ansatz verfassungsrechtlich an Strukturgrenzen stößt

Der ältere Ansatz ist rechtspolitisch interessant, aber verfassungsrechtlich an empfindlichen Stellen angreifbar. Art. 1 Abs. 1 GG schützt die Würde des Menschen, Art. 19 Abs. 3 GG erweitert Grundrechte nur auf juristische Personen, soweit sie ihrem Wesen nach passen, und Art. 79 Abs. 3 GG sperrt Änderungen, die die in Art. 1 und 20 niedergelegten Grundsätze berühren.

Wer KI-Systeme in den Kernbereich von Menschenwürde und Freiheitsrechten hineinziehen will, verschiebt deshalb nicht bloß Begriffe, sondern den Schutzgegenstand des Grundgesetzes selbst.

Was die enge Öffnungsklausel gerade nicht bedeutet

Eine funktionale Rechtsfähigkeit digitaler Systeme für eng begrenzte privatrechtliche Zwecke wäre nur dann denkbar, wenn Menschenwürde, demokratische Verantwortungszurechnung und die Verantwortlichkeit natürlicher und juristischer Personen unberührt bleiben.

  • Keine Gleichstellung mit dem Menschen.
  • Keine Abkoppelung von Hersteller-, Betreiber- oder Inverkehrbringerhaftung.
  • Keine demokratischen Teilhaberechte kraft künstlicher „Person“.
Welche Ebenen in Verfassung, Ausführungsgesetz und Standardisierung gehören

Die Verfassung sollte Schutzrichtung, Rechtsschutz und Verantwortungsordnung sichtbar machen. Ausführungsgesetze regeln Verbote, Aufsicht, Behördenzuständigkeiten, Verfahrenspflichten, Sanktionen und konkrete Schwellen. Standards und Frameworks operationalisieren Auditierbarkeit, Logging, Risikomanagement und Incident-Reporting.

Gerade diese Dreiteilung verhindert, dass der Verfassungstext entweder zu abstrakt bleibt oder sich in technischer Detailregulierung verliert.

08 Kontakt

Diskussion, Kritik und Weiterentwicklung

Wenn Sie den Entwurf kommentieren, kritisieren oder um zusätzliche Perspektiven erweitern möchten, können Sie uns direkt schreiben. Die Betreiberangabe bleibt bewusst zurückhaltend; der Schwerpunkt dieser Seite liegt auf dem verfassungsrechtlichen Argument.

Schreiben Sie uns

Die Seite wird von der SupraTix GmbH betreut. Hinweise, Gegenpositionen, Quellenvorschläge und Kommentierungen zur Neufassung sind willkommen.