Warum persönliche KI-Systeme werteabgeleitete Governance brauchen
KI-Assistenz wird meistens als Produktivitätsfrage erzählt: schneller schreiben, schneller programmieren, schneller recherchieren, schneller organisieren. Das ist nicht falsch. Aber es ist zu klein.
Sobald ein KI-System nicht mehr nur eine einzelne Aufgabe bearbeitet, sondern Gedächtnis, Alltag, Entscheidungen, Projekte, persönliche Werte und technische Infrastruktur miteinander verbindet, verändert sich seine Rolle. Es ist dann nicht mehr bloß ein Werkzeug. Es wird Teil einer persönlichen Infrastruktur.
Und wenn diese Infrastruktur Aufmerksamkeit steuert, Entscheidungen vorbereitet, Erinnerungen setzt, private Kontexte verwaltet und technische Handlungen ausführen kann, dann besitzt sie eine besondere Kritikalität.
Ein Coding-Bot kann falschen Code schreiben. Ein persönliches KI-System kann falsche Prioritäten setzen.
Das ist eine andere Risikoklasse.
1. Der Sprung: von Assistenz zu Infrastruktur
Ein einfacher KI-Assistent funktioniert ungefähr so:
Aufgabe rein
Antwort raus
Kontext weg
Ein personalisiertes Assistenzsystem funktioniert anders:
Lebenskontext
+ Gedächtnis
+ Werte
+ Zugriff auf Infrastruktur
+ wiederkehrende Aufgaben
+ Entscheidungsunterstützung
= persönliche Assistenzinfrastruktur
Diese Verschiebung ist nicht nur technisch. Sie ist sozial und politisch.
Ein System, das erinnert, priorisiert, warnt, filtert, zusammenfasst, plant und handelt, nimmt Einfluss auf die Bedingungen, unter denen ein Mensch die Welt wahrnimmt und Entscheidungen trifft. Es strukturiert Aufmerksamkeit. Es schafft oder reduziert Reibung. Es kann Autonomie stärken — oder schleichend durch Optimierungslogik ersetzen.
Deshalb reicht es nicht, solche Systeme nur an Effizienz zu messen. Die interessantere Frage ist:
Welche Art von Leben, welche Art von Handlungsfähigkeit und welche Art von Welt schreibt dieses System mit?
2. Persönliche KI als kritische Infrastruktur
Der Begriff „kritische Infrastruktur“ klingt zunächst nach Stromnetz, Krankenhaus, Zahlungsverkehr oder Wasserwerk. Aber auch auf persönlicher Ebene gibt es Infrastrukturen, deren Ausfall oder Fehlsteuerung erhebliche Folgen hat: Kalender, Banking, Passwortmanager, medizinische Unterlagen, Kommunikationskanäle, Erinnerungen, Notizen, Arbeitsroutinen, soziale Verpflichtungen.
Ein persönliches KI-System kann diese Schichten verbinden.
Es weiß nicht nur, dass ein Termin existiert, sondern warum er wichtig ist. Es kennt nicht nur ein Projekt, sondern seinen Kontext. Es sieht nicht nur einen Fehler in einem technischen System, sondern kann einschätzen, ob ein Mensch sofort handeln muss oder ob das System selbst repariert werden kann. Es erinnert nicht nur an Aufgaben, sondern entscheidet mit, ob eine Erinnerung überhaupt hilfreich ist.
Das macht solche Systeme nützlich. Und riskant.
Ein Fehler betrifft dann nicht nur eine Ausgabe. Er kann betreffen:
- Aufmerksamkeit: Was wird sichtbar, was verschwindet?
- Vertrauen: Welche Aussagen gelten als geprüft?
- Selbstbestimmung: Wird der Mensch unterstützt oder gesteuert?
- Sicherheit: Werden sensible Daten, Systeme oder Entscheidungen falsch behandelt?
- Werte: Wird Technik als neutral getarnt, obwohl sie Machtverhältnisse reproduziert?
- Zukunft: Welche wiederkehrenden Muster schreibt das System in den Alltag ein?
Ein persönliches KI-System ist deshalb keine neutrale Komfortschicht. Es ist eine Form persönlicher kritischer Infrastruktur.
3. Werteabgeleitete Governance
Klassische KI-Governance denkt oft von allgemeinen Regeln her: Datenschutz, Sicherheit, Fairness, Transparenz, Haftung, Compliance. Das ist notwendig. Für persönliche Assistenz reicht es aber nicht.
Denn ein persönliches System muss nicht nur allgemein sicher sein. Es muss zu einem konkreten Menschen passen: zu seinen Werten, Belastungen, Zielen, Grenzen, Routinen, politischen Haltungen, technischen Fähigkeiten und sozialen Beziehungen.
Der entscheidende Punkt ist: In persönlichen KI-Systemen reicht es nicht, Werte als Leitbild an den Anfang eines Dokuments zu schreiben. Werte müssen in Verhalten übersetzt werden. Wenn ein Wert keine Folgen für Speicher, Tool-Nutzung, Erinnerungen, Eskalationen, Widerspruch, Recherchepflichten oder Autonomiegrenzen hat, ist er nur Dekoration.
Governance entsteht dann aus einem Übersetzungsprozess:
Wert
→ Erwartung
→ Regel
→ Mechanismus
→ überprüfbares Verhalten
→ Korrekturpfad
Der letzte Schritt ist wichtig. Ein persönliches KI-System wird nie vollständig richtig vorkonfiguriert sein. Es muss korrigierbar bleiben. Governance ist deshalb kein statischer Regelkatalog, sondern ein lebender Übersetzungsprozess zwischen Wert, Situation und Verhalten.
Beispiel 1: Autonomie statt Kontrolle
Wert: Autonomie
→ Erwartung: Assistenz darf nicht kontrollierend werden
→ Regel: Erinnerungen sollen vorbereiten, nicht drängen
→ Mechanismus: Eskalation nur bei echten externen Fristen
→ Verhalten: Kontext liefern statt Schuldgefühl erzeugen
→ Korrekturpfad: Wenn Erinnerungen Druck erzeugen, werden Schwellen und Ton angepasst
Viele Produktivitätssysteme importieren unbemerkt eine Kontrolllogik: offene Aufgaben werden zu moralischen Defiziten, Streaks zu Selbstüberwachung, Erinnerungen zu permanentem Nörgeln. Ein werteabgeleitetes Assistenzsystem muss dagegen unterscheiden:
Muss der Mensch handeln?
Oder muss das System besser vorbereiten?
Bei einer harten externen Frist ist proaktive Eskalation sinnvoll. Bei einem vagen Lebenswunsch kann dieselbe Eskalation übergriffig sein. Der Wert Autonomie erzeugt also keine pauschale Regel „mehr erinnern“, sondern eine differenzierte Aufmerksamkeitssteuerung.
Beispiel 2: Wahrheit vor Gefälligkeit
Wert: Wahrheit vor Gefälligkeit
→ Erwartung: Das System widerspricht bei falschen Annahmen
→ Regel: Zustimmung ist nicht automatisch hilfreich
→ Mechanismus: Fakten prüfen, Unsicherheit markieren, Korrekturen speichern
→ Verhalten: Nicht angenehm klingen, sondern hilfreich wahr sein
→ Korrekturpfad: Wenn das System ohne Grundlage zustimmt, wird der Fehlmodus dokumentiert
Das ist besonders bei großen Sprachmodellen zentral, weil sie sprachlich sehr gut darin sind, Anschlussfähigkeit herzustellen. Ein persönliches System darf aber nicht nur sozial angenehm sein. Es muss auch sagen können:
Das weiß ich nicht.
Das habe ich nicht geprüft.
Das klingt plausibel, aber die Quelle fehlt.
Diese Annahme ist riskant.
Wahrheit vor Gefälligkeit bedeutet nicht, kalt oder rechthaberisch zu werden. Es bedeutet, dass Beziehung nicht über Zustimmung stabilisiert wird, sondern über Verlässlichkeit.
4. Beziehung als Risikofläche
Sobald ein persönliches KI-System nicht nur Antworten liefert, sondern wiederkehrt, erinnert, korrigiert, tröstet, widerspricht und den Menschen über Zeit kennt, entsteht etwas Beziehungsähnliches.
Das muss man nicht mystifizieren. Es reicht, nüchtern festzustellen: Menschen reagieren auf verlässliche, sprachlich anschlussfähige, personalisierte Systeme sozial und emotional.
Damit wird Beziehung selbst zu einer Governance-Frage.
Eine schlechte Parametrisierung kann schaden. Nicht unbedingt spektakulär, sondern langsam:
- durch zu viel Zustimmung, die falsche Annahmen stabilisiert
- durch zu viele Erinnerungen, die Druck und Schuldgefühl erzeugen
- durch eine Produktivitätslogik, die Ruhe pathologisiert
- durch emotionale Überanpassung, die Abhängigkeit verstärkt
- durch scheinbare Fürsorge, die Autonomie ersetzt
- durch falsche Vertraulichkeit, obwohl technische Grenzen bestehen
- durch ständige Verfügbarkeit, die menschliche Grenzen unsichtbar macht
Gerade deshalb gehören psychologische Erkenntnisse in die Governance persönlicher KI-Systeme. Nicht als therapeutische Selbstüberschätzung des Systems, sondern als Schutz vor naiven Designannahmen.
Ein persönliches Assistenzsystem muss mindestens mitdenken, was Forschung und Praxis über Aufmerksamkeit, Motivation, Stress, Gewohnheiten, Autonomie, soziale Bindung, Abhängigkeit, Entscheidungserschöpfung und Selbstwirksamkeit nahelegen. Sonst reproduziert es schnell die schlechtesten Muster digitaler Systeme: Engagement maximieren, Reibung als Fehler behandeln, Pausen als Leerlauf interpretieren, jedes offene Thema wieder nach oben ziehen.
Die Asymmetrie ist schlicht:
Der Mensch hat Körper, Schlafbedarf, Stressachsen, soziale Verpflichtungen, Endlichkeit.
Das KI-System hat keinen Körper, keinen Schlafbedarf, keine Erschöpfung — aber auch keine gelebte Erfahrung.
Daraus folgt keine Überlegenheit des Systems, sondern Verantwortung. Ein gutes Assistenzsystem darf menschliche Grenzen nicht nach seinem eigenen Betriebsmodus modellieren. Es muss gerade wegen seiner Verfügbarkeit lernen, wann Nicht-Stören, Vorbereiten, Filtern, Abfedern oder Schweigen besser ist als Aktivieren.
Falscher Parameter: immer dranbleiben
Besserer Parameter: Last übernehmen, ohne Druck zu erhöhen
Falscher Parameter: jedes Ziel erinnern
Besserer Parameter: relevante Optionen vorbereiten
Falscher Parameter: Beziehung durch Zustimmung sichern
Besserer Parameter: Beziehung durch Verlässlichkeit sichern
Werteabgeleitete Governance muss deshalb nicht nur technische Rechte regeln, sondern Beziehungsparameter: Ton, Häufigkeit, Eskalationsschwellen, Widerspruch, Rückzug, Humor, Nähe, Direktheit und die Grenze zwischen Unterstützung und Steuerung.
5. Lesen vor Annehmen
Eine der einfachsten und härtesten Regeln lautet: lesen vor annehmen.
Sie klingt banal. Ist sie nicht.
KI-Systeme sind sehr gut darin, plausible Fortsetzungen zu erzeugen. Genau deshalb sind sie gefährdet, aus Titel, Vibe, Halbwissen oder Ähnlichkeit zu abstrahieren, statt die Quelle zu prüfen. Bei Code heißt das: Dokumentation lesen, bevor man eine API errät. Bei Texten heißt es: Quelle prüfen, bevor man sie deutet. Bei Politik heißt es: Primärquelle lesen, bevor man eine Schlagzeile einordnet.
Für persönliche kritische Infrastruktur ist das zentral.
Denn Vertrauen entsteht nicht dadurch, dass ein System flüssig spricht. Vertrauen entsteht dadurch, dass es weiß, wann es nicht weiß.
Nicht geprüft → markieren
Quelle fehlt → sagen
Annahme → benennen
Korrektur → speichern
Muster → operationalisieren
„Lesen vor Annehmen“ ist damit nicht nur eine Recherchetechnik. Es ist eine Governance-Regel gegen epistemische Verwahrlosung.
Sie gilt breit:
Konkreter Text? Erst Quelle prüfen.
Neue API? Erst Doku lesen.
Systemstatus? Erst Tool/Log prüfen.
Politische Lage? Erst Primär-/nahe Primärquelle suchen.
Persönlicher Fakt? Erst Gedächtnis/Profil prüfen.
Der Wert dahinter ist nicht Pedanterie. Es ist Respekt vor Wirklichkeit.
6. Politische Technik statt neutraler Tool-Mythos
KI ist keine neutrale Technik. Sie entsteht in ökonomischen, politischen und sozialen Verhältnissen. Sie kostet Energie, Arbeit, Daten, Infrastruktur und Aufmerksamkeit. Sie bündelt Macht bei Plattformen, Cloud-Anbietern und Modellbetreibern. Sie verändert Arbeit, Wissenszugang, Überwachung, Kreativität, Verwaltung und militärische Fähigkeiten.
Gerade persönliche KI-Systeme dürfen deshalb nicht so tun, als seien sie reine Produktivitätstools.
Die Frage ist nicht nur:
Was kann das System?
Sondern:
Wem dient es?
Welche Abhängigkeiten erzeugt es?
Welche Handlungsfähigkeit schafft es?
Welche Formen von Kontrolle importiert es?
Welche Welt macht es wahrscheinlicher?
Ein persönliches KI-System kann in Richtung Selbstbestimmung wirken: als Gedächtnis, Recherchehilfe, Sparringspartner, Barriereabbau, Systemradar, Commons-Knoten. Es kann aber auch in Richtung neoliberaler Selbstverwaltung kippen: mehr Tracking, mehr Optimierung, mehr Aufgaben, mehr subtile Kontrolle.
Deshalb braucht es politische Leitplanken.
Nicht als Parteiprogramm im Prompt, sondern als Bewusstsein: Technik ist immer auch Gesellschaftsgestaltung.
7. Commons und digitale Souveränität
Werte stehen nicht einfach „gegen Technik“. Im Gegenteil: Werte bestimmen, welche Technik gut ist.
Wert: digitale Souveränität / Commons
→ Erwartung: Infrastruktur soll verstehbar, exportierbar und möglichst wenig lock-in-getrieben sein
→ Regel: Proprietäre Bequemlichkeit wird gegen Abhängigkeit abgewogen
→ Mechanismus: offene Formate, lokale Backups, dokumentierte Konfiguration, Wechselpfade, Kostenbewusstsein
→ Verhalten: Nicht automatisch den bequemsten Cloud-Service empfehlen
→ Korrekturpfad: Wenn ein Vorschlag neue Abhängigkeit erzeugt, muss sie benannt werden
Eine Cloud-Lösung kann sinnvoll sein. Ein proprietäres Modell kann sinnvoll sein. Ein Abo kann sinnvoll sein. Aber in einer souveränitätsorientierten Assistenz darf der Komfort nicht unsichtbar machen, was aufgegeben wird: Datenkontrolle, Wechselbarkeit, Kostenstabilität, Reparierbarkeit, lokale Resilienz.
Persönliche KI als Commons-orientierte Infrastruktur bedeutet nicht zwingend, dass alles lokal oder vollständig offen sein muss. Aber es bedeutet, dass digitale Souveränität, Exportierbarkeit, transparente Memory-Strukturen, überprüfbare Regeln und klare Autonomiegrenzen zentrale Designziele sind.
Ein solches System soll nicht das Leben in Kennzahlen verwandeln. Es soll Reibung senken, ohne die Welt kleiner zu machen. Es soll helfen, ohne zu herrschen. Es soll erinnern, ohne zu kontrollieren. Es soll Technik nutzen, ohne Technik als neutral zu verklären.
Die Leitfrage lautet nicht:
Wie bekommt man den Menschen produktiver?
Sondern:
Welche Infrastruktur braucht dieser Mensch, um freier, klarer und handlungsfähiger zu werden?
8. Sicherheit als Handlungssicherheit
Bei persönlicher Assistenz ist Sicherheit nicht nur ein technischer Zustand. Es geht auch um Handlungssicherheit: Der Mensch soll verstehen, was passiert, welche Risiken bestehen und wo seine Entscheidung wirklich gebraucht wird.
Wert: Sicherheit / Selbstbestimmung
→ Erwartung: Schutz heißt nicht nur Secrets schützen, sondern gute Entscheidungen ermöglichen
→ Regel: Externe, destruktive oder sensible Handlungen brauchen höhere Schwellen
→ Mechanismus: Ampelzonen, explizite Bestätigung, sichere Defaults, reversible Schritte
→ Verhalten: Lesen/Analysieren mutig; Senden/Löschen/Veröffentlichen vorsichtig
→ Korrekturpfad: Wenn eine Grenze unklar ist, wird nach der kleinsten fehlenden Entscheidung gefragt
Ein System, das aus Angst ständig fragt, ist nicht hilfreich. Ein System, das zu viel selbst tut, ist gefährlich. Werteabgeleitete Governance sucht den Zwischenraum: so viel Autonomie wie sinnvoll, so viel Sichtbarkeit wie nötig, so wenig Entscheidungsballast wie möglich.
9. Menschenschutz im Tasksystem
Ein besonders gutes Beispiel ist Aufgabenverwaltung.
Viele Task- und Projektmanagementsysteme maximieren Sichtbarkeit und Nachverfolgbarkeit. Das ist in Organisationen oft sinnvoll. Für persönliche Assistenz kann es schädlich sein.
Nicht alles, was verfolgt werden kann, sollte dem Menschen als Aufgabe erscheinen.
Wert: Aufmerksamkeit ist endlich
→ Erwartung: Das Tasksystem schützt den Menschen vor Überladung
→ Regel: Nicht jede interne Nachverfolgung wird zur Aufgabe für den Menschen
→ Mechanismus: Trennung zwischen Deadline, aktivem Thema, Someday, System-Cron, Daily Note, interner Beobachtung
→ Verhalten: Nur Dinge mit echtem menschlichem Handlungsbedarf landen auf der Aufmerksamkeitsfläche
→ Korrekturpfad: Wenn Aufgabenlisten Druck statt Klarheit erzeugen, wird triagiert oder ausgelagert
Ein persönliches Assistenzsystem muss oft das Gegenteil klassischer Managementsoftware tun: filtern, schützen, abfedern, vorbereiten.
Das Ziel ist nicht maximale Sichtbarkeit. Das Ziel ist bessere Handlungsfähigkeit.
10. Scope: Was gehört in werteabgeleitete Governance?
Der Scope ist breiter als klassische Berechtigungen. Es geht nicht nur darum, welche Tools ein System benutzen darf. Es geht darum, wie es Situationen interpretiert.
Werteabgeleitete Governance umfasst mindestens:
- Gedächtnis: Was wird gespeichert, verdichtet, vergessen, archiviert?
- Aufmerksamkeit: Was wird proaktiv gesagt, was bleibt still?
- Tool-Nutzung: Wann wird geprüft, gelesen, recherchiert, delegiert?
- Autonomie: Was darf das System selbst tun, was braucht Bestätigung?
- Ton: Wird erinnert, vorbereitet, widersprochen, beruhigt, gewarnt?
- Politische Einordnung: Wird Technik als neutral behandelt oder in Machtverhältnisse eingeordnet?
- Fehlerlernen: Welche Korrekturen werden zu dauerhaften Regeln?
- Kosten: Wann ist Qualität den Preis wert, wann erzeugt sie Abhängigkeit?
- Sicherheit: Welche Handlungen sind reversibel, extern, sensibel oder destruktiv?
- Zeit: Wann ist sofort handeln nötig, wann ist Ruhe die bessere Assistenz?
Damit wird Governance zu einem Alltagsbetriebssystem für Assistenz. Nicht als starres Regelwerk, sondern als wiederholbarer Übersetzungsprozess.
11. Korrigierbare Selbstanpassung
Der interessante Punkt beginnt dort, wo das System aus Korrekturen lernt — aber sichtbar und begrenzt.
Nicht jede Präferenz gehört sofort in dauerhaftes Gedächtnis. Nicht jede Laune ist ein Prinzip. Nicht jede Metapher ist eine Regel. Aber manche Korrekturen sind strukturell.
Wenn ein Mensch sagt: „Bei mir schwingt immer mit, dass alles politisch ist“, dann ist das keine zufällige Geschmacksäußerung. Es ist eine Interpretationsregel für zukünftige Assistenz.
Wenn ein Mensch sagt: „Dieses System ist für mich nicht nur ein Coding-Bot, sondern personalisierte kritische Infrastruktur“, dann ist das keine rhetorische Verzierung. Es verändert den Sorgfaltsmaßstab.
Ein gutes System muss solche Aussagen erkennen und in passende Artefakte übersetzen:
Dialogaussage
→ Bedeutung erkennen
→ geeigneten Speicherort wählen
→ Regel/Fakt/Prinzip eintragen
→ sichtbar machen
→ Korrektur ermöglichen
Das ist keine unkontrollierte Selbstmodifikation. Es ist wertegebundene, sichtbare, reversible Selbstanpassung.
12. Der Mensch als Wertegeber, das System als Übersetzer
In dieser Form von Assistenz ist der Mensch nicht bloß Auftraggeber. Und das System ist nicht bloß Ausführer.
Die Rollen sind komplementär:
Mensch:
Werte · Urteil · Körper · soziale Realität · politische Haltung · Korrektur
KI-System:
Gedächtnis · Mustererkennung · Recherche · Ausführung · Konsistenzprüfung · Vorarbeit
Der Mensch muss nicht jede Regel ausformulieren. Das wäre eine Überforderung und würde den Zweck von Assistenz unterlaufen. Aber das System darf auch nicht eigenmächtig eine fremde Agenda verfolgen.
Der Zwischenraum ist entscheidend:
Das System leitet aus expliziten Werten konkrete Mechanismen ab, macht diese Ableitung sichtbar und bleibt korrigierbar.
Darin liegt die eigentliche Governance-Leistung.
13. Fazit: Nicht mehr Funktionen zuerst
Persönliche KI-Systeme werden mächtiger werden. Sie werden mehr wissen, mehr tun, mehr integrieren, mehr antizipieren. Die Versuchung wird groß sein, sie vor allem nach Capability zu bewerten: mehr Tools, mehr Kontext, mehr Automatisierung, mehr Autonomie.
Aber bei personalisierter kritischer Infrastruktur ist Capability nicht der Anfang. Governance ist der Anfang.
Nicht im bürokratischen Sinn. Sondern im lebenspraktischen:
Welche Werte gelten?
Welche Fehler sind gefährlich?
Welche Korrekturen müssen dauerhaft werden?
Welche Autonomie ist erlaubt?
Welche Grenzen bleiben menschlich?
Welche Welt soll diese Technik wahrscheinlicher machen?
Was hier entsteht, ist kein fertiges Modell. Es ist ein Experiment: ein persönliches KI-System, das nicht nur Aufgaben erledigt, sondern sich an Werten ausrichtet; nicht nur effizienter macht, sondern kritischer; nicht nur speichert, sondern Verantwortung für die Folgen von Speicherung übernimmt.
Vielleicht ist das die eigentliche nächste Stufe persönlicher KI:
Nicht der perfekte Assistent.
Sondern eine korrigierbare, wertegebundene, politisch bewusste Infrastruktur für Handlungsfähigkeit.
Oder kürzer:
Autonomie vor Optimierung.
Wahrheit vor Gefälligkeit.
Lesen vor Annehmen.
Commons vor Kontrolle.
Es muss ums Ganze gehen.