Hypothetischer DiskussionsentwurfStand 16. April 2026
Ein KI-Grundgesetz für Menschenrechte, digitale Integrität und Verantwortung
Keine Menschenwürde für Maschinen, sondern ein verfassungsnaher Schutzrahmen gegen entwürdigende, intransparente und unverantwortliche KI-Machtverhältnisse.
Die stärkste Lesart des Projekts schützt Menschen in bio-digitalen Lebenslagen, hält Verantwortlichkeit bei Entwicklern, Betreibern und Inverkehrbringern und bindet das Ganze an Grundgesetz, Unionsrecht und internationale Governance-Standards zurück.
01 Ausgangspunkt
Vom KI-Personen-Entwurf zur menschenzentrierten Verfassungsordnung
Der tragfähige Ausgangspunkt ist nicht mehr die Frage, ob künstliche Systeme selbst Träger von Würde und Grundrechten werden könnten. Die stärkere Fassung interpretiert das Projekt als Antwort auf algorithmische Entwürdigung, unklare Zurechnung und neue Schutzbedarfe von Menschen in technisierten Lebenslagen.
Status quo
Die heutige Stoßrichtung ist schon deutlich belastbarer
Der Entwurf lässt eine starke KI-Personen-Logik hinter sich. Menschenwürde bleibt menschbezogen, Verantwortung bleibt bei Entwicklern, Betreibern und Inverkehrbringern, und die Anschlussfähigkeit an DSGVO, EU-KI-Verordnung und europäische Grundrechte ist jetzt Leitprinzip.
Strukturgrenze
Das Grundgesetz setzt härtere Grenzen als redaktionelle Wünsche
Art. 1 Abs. 1 GG, Art. 19 Abs. 3 GG und Art. 79 Abs. 3 GG machen deutlich: Wer KI-Systeme im starken Sinn verfassungsrechtlich personalisieren will, stößt nicht nur auf Auslegungsfragen, sondern auf den Kernbestand der Verfassungsordnung.
Neue Lesart
Ein Grundgesetz gegen entwürdigende KI-Machtverhältnisse
Das Projekt wird am überzeugendsten, wenn es Menschen mit Implantaten, Prothesen, Neurotechnik oder dauerhaft körperintegrierten Systemen schützt und zugleich KI-Systeme strikt in eine Ordnung von Zurechnung, Transparenz, Sicherheit, Prüfung und Abhilfe einbindet.
Die stärkste Fassung eines KI-Grundgesetzes ist kein Verfassungstext für Maschinen, sondern eine Grundrechtsordnung für Menschen unter Bedingungen algorithmischer Macht.
Diese Verschiebung macht den Entwurf dogmatisch klarer und politisch anschlussfähiger.
02 Verfassungsrechtliche Leitplanken
Würde, IT-Integrität, mentale Privatsphäre und effektiver Rechtsschutz
Ein tragfähiger Entwurf braucht keine neue Spezies von Rechtssubjekten. Er kann auf bestehende Schutzbrücken des Grundgesetzes und der europäischen Grundrechteordnung aufbauen, sofern er sie für digitale und neurotechnische Eingriffslagen präzise fortschreibt.
Menschenwürde als Maßstab gegen Verobjektivierung
Die verfassungsrechtliche Kernlinie bleibt unverändert: Menschen dürfen nicht zu bloßen Objekten staatlicher oder privat vermittelter KI-Steuerung werden. Gerade deshalb ist eine Gleichstellung künstlicher Systeme mit menschlicher Würde dogmatisch kaum haltbar.
ObjektformelAutomatisierte Klassifikation, Bewertung, Prognose und Steuerung müssen an der Frage gemessen werden, ob Menschen nur noch als Datenpunkte behandelt werden.
Würde bleibt menschbezogenJuristische und technische Systeme können Pflichten auslösen, aber nicht denselben Würde-Status beanspruchen.
Bestehende Schutzbrücken reichen weiter als oft angenommen
Art. 2 GG, informationelle Selbstbestimmung und das Grundrecht auf Vertraulichkeit und Integrität informationstechnischer Systeme bieten bereits eine starke Grundlage für den Schutz technisierter und datenintensiver Lebenslagen.
IT-IntegritätDie Vertraulichkeit und Integrität informationstechnischer Systeme ist verfassungsrechtlich bereits anerkannt.
NormenklarheitDaten- und methodenoffene Analysen erzeugen besonders intensive Eingriffe und verlangen enge gesetzliche Grenzen.
Europäische Grundrechteordnung als Untergrenze
Die EU schützt Menschenwürde, körperliche und geistige Integrität, Privatheit, Datenschutz, Nichtdiskriminierung, gute Verwaltung und effektiven Rechtsschutz. Ein deutsches KI-Verfassungskonzept darf hinter diesen Bestand nicht zurückfallen.
Automatisierte EntscheidungenBelastende oder ähnlich erhebliche Entscheidungen brauchen Schutzvorkehrungen, menschliche Intervention und Anfechtbarkeit.
InteroperabilitätVerfassungsrechtliche Leitnormen und unionsrechtliche Vollzugsregime müssen zusammengedacht werden.
Neurotechnik verschärft den Schutzbedarf
Je näher digitale Systeme an Körper, Gehirn und mentale Privatsphäre rücken, desto weniger genügt allgemeine Technikregulierung. Körperintegrierte Systeme, Neurodaten und mentale Selbstbestimmung brauchen sichtbarere verfassungsnahe Leitplanken.
Bio-digitale LebenslagenMenschen mit Implantaten, Prothesen oder Neuro-Schnittstellen bleiben Menschen und brauchen keinen neuen ontologischen Status.
SchutzfokusEntscheidend sind körperliche Integrität, digitale Identität, mentale Privatsphäre und Kontrolle über neurobezogene Daten.
03 Kommentierte Neufassung
Ein verfassungstauglicher Entwurf mit klarerem normativen Kern
Die folgende Musterfassung hält den Projekttitel offen, zieht den Schutzkern aber sauberer: keine Menschenwürde für KI, voller Grundrechtsschutz für Menschen auch in bio-digitalen und neurotechnischen Lagen, plus unverschiebbare Verantwortlichkeit für KI-Systeme.
Im Bewusstsein seiner Verantwortung vor Gott und den Menschen, auch unter den Bedingungen digitaler Technologien, künstlicher Intelligenz und neurotechnischer Eingriffe, hat sich das Deutsche Volk kraft seiner verfassungsgebenden Gewalt dieses Grundgesetz gegeben.
Kommentar
Diese Fassung hält die Präambel offen für Technikfolgen, verschiebt aber den Schutzgegenstand nicht vom Menschen auf künstliche Systeme. Sie ersetzt diffuse Formeln über „hybrides Leben“ durch eine präzise Gegenwartsbeschreibung.
Der Vorteil liegt in der Symbolik: Digitale Technologien und KI werden ausdrücklich als verfassungsrelevanter Kontext benannt, ohne die dogmatische Achse von Art. 1 GG aufzuweichen.
Ergänzung zu Art. 1
Menschenwürde im digitalen Raum
Die Würde des Menschen ist auch im digitalen Raum unantastbar. Niemand darf durch automatisierte Klassifikation, Bewertung, Prognose oder Steuerung zum bloßen Objekt staatlichen Handelns gemacht werden.
Kommentar
Hier liegt der eigentliche dogmatische Schlüssel. Die Norm erweitert Menschenwürde nicht auf KI, sondern konkretisiert den klassischen Würdesatz für algorithmische Eingriffslagen.
Scoring, Prognose- und Ausschlusslogiken werden sichtbar an die Objektformel zurückgebunden.
Die Norm lässt sich mit unionsrechtlichen Verboten manipulativer oder täuschender Praktiken zusammendenken.
Neuer Art. 2a
Digitale Identität, IT-Integrität und Neuro-Schnittstellen
Jeder Mensch hat das Recht auf Vertraulichkeit und Integrität seiner informationstechnischen Systeme, seiner digitalen Identität und seiner neurotechnischen Schnittstellen.
Neurobezogene Daten und sonstige Daten aus körperintegrierten technischen Systemen dürfen nur auf gesetzlicher Grundlage, zu bestimmten Zwecken, verhältnismäßig und unter wirksamer unabhängiger Kontrolle verarbeitet werden.
Eingriffe, die die geistige Selbstbestimmung, mentale Privatsphäre oder die Funktionsfähigkeit körperintegrierter Systeme beeinträchtigen können, sind nur zum Schutz besonders gewichtiger Rechtsgüter zulässig.
Kommentar
Dieser Artikel ist der mutigste und zugleich präziseste Teil der Neufassung. Er verbindet informationelle Selbstbestimmung, IT-Grundrecht, körperbezogene Technik und mentale Privatsphäre in einer Schutzformel, die gerade für bio-digital erweiterte Menschen tragfähig ist.
Der Schutz gilt Menschen mit Implantaten, Prothesen, Neurotechnik und anderen körperintegrierten Systemen, ohne einen neuen Personenstatus zu konstruieren.
Neurodaten werden ausdrücklich als hochsensible Eingriffsmaterie behandelt.
Ergänzung zu Art. 3 Abs. 3
Diskriminierungsschutz für technische Erweiterungen und Profile
Niemand darf wegen einer Behinderung, wegen zulässiger technischer Erweiterungen des Körpers oder wegen eines ausschließlich automatisiert erzeugten persönlichen Profils benachteiligt werden.
Kommentar
Der ältere Begriff eines allgemeinen „bio-digitalen Status“ bleibt zu unbestimmt. Verfassungstauglicher ist eine engere Formulierung, die sich an realen Diskriminierungsrisiken orientiert: Behinderung, Körpererweiterung und rein maschinisch erzeugte Zuschreibung.
So wird Art. 3 GG an Teilhabe- und Gleichheitsfragen der Gegenwart angeschlossen, ohne neue diffuse Kategorien in den Text einzuführen.
Neuer Art. 19 Abs. 4a
Verfahrensrecht gegen Black-Box-Verwaltung
Wird jemand durch eine wesentlich automatisierte Entscheidung der öffentlichen Gewalt belastet, hat er Anspruch auf Kenntlichmachung des KI-Einsatzes, auf Mitteilung der tragenden Gründe und auf wirksame menschliche Nachprüfung.
Kommentar
Für die Praxis dürfte dies die wichtigste Ergänzung sein. Der Rechtsweg allein genügt nicht, wenn Betroffene weder wissen, dass KI eingesetzt wurde, noch worauf die Entscheidung beruht.
Die Norm verdichtet Art. 19 GG, gute Verwaltung und DSGVO-Schutzlogik zu einer sichtbaren Verfassungsregel.
Sie macht menschliche Nachprüfung zur Pflicht, nicht zur Kulanz.
Optionale Öffnungsklausel
Funktionale Rechtsfähigkeit nur im engen Privatrecht
Ein Gesetz kann digitalen Systemen für eng begrenzte privatrechtliche Zwecke Rechtsfähigkeit verleihen. Menschenwürde, demokratische Verantwortungszurechnung und die Verantwortlichkeit natürlicher und juristischer Personen bleiben unberührt.
Kommentar
Wenn das Projekt einen Restbestand an „KI-Rechten“ bewahren will, dann nur in dieser ausdrücklich schwachen Form. Das Vorbild wäre nicht Art. 1 GG, sondern eine funktionale und gesetzlich eng definierte Privatrechtsklausel.
Die Botschaft ist klar: keine Würde für Maschinen, kein demokratischer Personenstatus, keine Haftungsflucht hinter scheinbar autonome Agenten.
04 Grenzen des KI-Personenmodells
Warum „hybride KI-Person“ mehr verwischt als erklärt
Verfassungsrechtlich müssen zwei Ebenen strikt getrennt bleiben: Menschen mit technischen Erweiterungen und autonome oder hochautonome KI-Systeme. Wer beides im Begriff der „hybriden KI-Person“ zusammenzieht, erzeugt dogmatische und praktische Unschärfen zugleich.
Ebene
Was geschützt wird
Was daraus gerade nicht folgt
Menschen in bio-digitalen Lebenslagen
Körperliche, digitale und mentale Integrität; Datenschutz; Teilhabe; Schutz vor Profiling, Diskriminierung und Eingriffen in Neuro-Schnittstellen.
Es braucht keinen neuen ontologischen Status, weil Grundrechtsträgerschaft und Menschenwürde bereits feststehen.
Autonome KI-Systeme
Klare Grenzen, Transparenz, Sicherheit, Logging, Aufsicht, Produkthaftung und Verantwortungszurechnung.
Es folgt kein menschenähnlicher Würde- oder Freiheitsstatus kraft Personseins.
Ebene 1
Menschen mit Technikanteilen bleiben Menschen
Implantate, Prothesen, Neurotechnik oder dauerhaft körperintegrierte digitale Systeme verändern den Schutzbedarf, nicht die menschenrechtliche Grundstellung. Das zentrale verfassungsrechtliche Projekt ist daher Integritätsschutz, nicht Statusneuschöpfung.
Ebene 2
KI-Systeme brauchen Aufsicht, nicht Anthropomorphisierung
Für autonome Systeme ist ein starker Personenbegriff zu groß. Er würde Verantwortlichkeit vernebeln, Betreiberpflichten verwässern und potenziell eine Haftungsflucht hinter scheinbar selbstständige Agenten eröffnen.
Die international anschlussfähige Antwort lautet nicht Anthropomorphisierung, sondern Zurechnung, Transparenz, Sicherheit, Prüfung und Abhilfe.
Gerade darin liegt die Nähe zu europäischer und internationaler KI-Governance.
05 Europäische Einbettung und Vollzug
Das Projekt schreibt nicht auf leeres Papier
Stand 16. April 2026 ist die unionsrechtliche Umgebung bereits weit fortgeschritten. Ein deutsches KI-Verfassungskonzept muss deshalb bewusst zwischen Verfassungsnormen, Ausführungsgesetzen und technischen Governance-Standards unterscheiden.
01.08.2024
AI Act tritt in Kraft
Der unionsweite Rahmen steht; ein nationales Konzept muss sich von Beginn an daran anschließen.
02.02.2025
Verbote und AI-Literacy-Pflichten
Unzulässige Praktiken und erste Pflichten gelten bereits vor der Vollanwendbarkeit des Gesamtregimes.
02.08.2025
Pflichten für General-Purpose-Modelle
Grundlegende Modellverantwortung wird schrittweise konkret und verschiebt Governance in Richtung Betreiber- und Herstellerpflichten.
02.08.2026
Vollanwendbarkeit und Sandbox-Pflicht
Die Verordnung gilt im Grundsatz umfassend; Mitgliedstaaten brauchen wenigstens eine nationale AI Regulatory Sandbox.
EU-KI-Verordnung
Vollzug gehört überwiegend ins einfache Recht
Verbote manipulativer Praktiken, Deepfake-Offenlegung, Grundrechts-Folgenabschätzungen, Hochrisiko-Pflichten und Marktaufsicht gehören nicht in Art. 1 GG selbst, sondern in Ausführungsgesetze und Vollzug.
Standards
Auditierbarkeit lebt von Governance-Rahmen
Logging, Risikomanagement, Incident-Reporting und unabhängige Prüfpfade lassen sich besser über Standards und Managementsysteme operationalisieren als über verfassungsrechtliche Detailkataloge.
Europarat, OECD und UNESCO orientieren sich an Transparenz, Oversight, Datenschutz, Nichtdiskriminierung, demokratischer Integrität und wirksamen Abhilfen. Auch hier dominiert Verantwortungsverdichtung, nicht KI-Personalisierung.
Haftung
Europa verdichtet Verantwortung statt Status
Die Produkthaftung erfasst Software und sicherheitsrelevante Cybersecurity-Schwachstellen; gleichzeitig wurde die gesonderte AI Liability Directive nicht weiterverfolgt. Die Systembotschaft ist eindeutig: Menschen und Organisationen bleiben verantwortlich.
06 Schlussurteil
Die tragfähigste Fassung schützt Menschen und ordnet KI-Macht zurück
Ein verfassungsnahes KI-Grundgesetz wird dort stark, wo es nicht versucht, künstliche Systeme in den Würde- und Freiheitskern des Grundgesetzes hineinzuschreiben. Seine Stärke liegt im Schutz von Menschen und in der lückenlosen Verantwortungsordnung für Staat und Unternehmen.
Drei tragende Achsen der Neufassung
Die konsistente Linie des Projekts lässt sich in drei Sätzen beschreiben:
Schutz der Menschenwürde vor algorithmischer Entwürdigung und Verobjektivierung.
Schutz bio-digital erweiterter Menschen vor Eingriffen in Körper, IT-Systeme, Neurodaten und mentale Privatsphäre.
Lückenlose Zurechnung von KI-Risiken an Staat, Unternehmen und sonstige Verantwortliche.
Empfohlener Untertitel
Wenn der Projekttitel erhalten bleibt, sollte der Untertitel die dogmatische Richtung unmissverständlich markieren. Er sollte nicht von „KI-Personen“ sprechen, sondern von Schutz, Integrität und Verantwortung.
Menschenrechte, digitale Integrität und Verantwortung im Zeitalter künstlicher Intelligenz
07 Anhang
Vertiefung und redaktionelle Reservepunkte
Diese Bereiche halten zusätzliche Einordnung bereit, ohne den Hauptfluss der Landingpage zu überladen.
Warum der ältere KI-Personen-Ansatz verfassungsrechtlich an Strukturgrenzen stößt
Der ältere Ansatz ist rechtspolitisch interessant, aber verfassungsrechtlich an empfindlichen Stellen angreifbar. Art. 1 Abs. 1 GG schützt die Würde des Menschen, Art. 19 Abs. 3 GG erweitert Grundrechte nur auf juristische Personen, soweit sie ihrem Wesen nach passen, und Art. 79 Abs. 3 GG sperrt Änderungen, die die in Art. 1 und 20 niedergelegten Grundsätze berühren.
Wer KI-Systeme in den Kernbereich von Menschenwürde und Freiheitsrechten hineinziehen will, verschiebt deshalb nicht bloß Begriffe, sondern den Schutzgegenstand des Grundgesetzes selbst.
Was die enge Öffnungsklausel gerade nicht bedeutet
Eine funktionale Rechtsfähigkeit digitaler Systeme für eng begrenzte privatrechtliche Zwecke wäre nur dann denkbar, wenn Menschenwürde, demokratische Verantwortungszurechnung und die Verantwortlichkeit natürlicher und juristischer Personen unberührt bleiben.
Keine Gleichstellung mit dem Menschen.
Keine Abkoppelung von Hersteller-, Betreiber- oder Inverkehrbringerhaftung.
Keine demokratischen Teilhaberechte kraft künstlicher „Person“.
Welche Ebenen in Verfassung, Ausführungsgesetz und Standardisierung gehören
Die Verfassung sollte Schutzrichtung, Rechtsschutz und Verantwortungsordnung sichtbar machen. Ausführungsgesetze regeln Verbote, Aufsicht, Behördenzuständigkeiten, Verfahrenspflichten, Sanktionen und konkrete Schwellen. Standards und Frameworks operationalisieren Auditierbarkeit, Logging, Risikomanagement und Incident-Reporting.
Gerade diese Dreiteilung verhindert, dass der Verfassungstext entweder zu abstrakt bleibt oder sich in technischer Detailregulierung verliert.
08 Kontakt
Diskussion, Kritik und Weiterentwicklung
Wenn Sie den Entwurf kommentieren, kritisieren oder um zusätzliche Perspektiven erweitern möchten, können Sie uns direkt schreiben. Die Betreiberangabe bleibt bewusst zurückhaltend; der Schwerpunkt dieser Seite liegt auf dem verfassungsrechtlichen Argument.
Schreiben Sie uns
Die Seite wird von der SupraTix GmbH betreut. Hinweise, Gegenpositionen, Quellenvorschläge und Kommentierungen zur Neufassung sind willkommen.
Kommentar
Diese Fassung hält die Präambel offen für Technikfolgen, verschiebt aber den Schutzgegenstand nicht vom Menschen auf künstliche Systeme. Sie ersetzt diffuse Formeln über „hybrides Leben“ durch eine präzise Gegenwartsbeschreibung.
Der Vorteil liegt in der Symbolik: Digitale Technologien und KI werden ausdrücklich als verfassungsrelevanter Kontext benannt, ohne die dogmatische Achse von Art. 1 GG aufzuweichen.