21 Gesetze (CC BY-NC-ND 4.0)

Augmanitai Axiome

Aufgeschrieben im Januar 2026. Wer sie kennt, arbeitet anders.

 

Es gibt Dinge die man weiß — und Dinge die man sich aufschreiben muss damit man sie nicht vergisst.

Diese 21 Gesetze sind das Zweite. Keine Vorschrift. Keine Handlungsanweisung. Beobachtungen darüber was funktioniert und was nicht — wenn Menschen ernsthaft mit KI arbeiten. Alle Inhalte sind deskriptiv, nicht präskriptiv.

==========================================================================

AUGMANITAI — 21 GESETZE DER MENSCH-KI-KOLLABORATION

Version 2.0 — März 2026 (Überarbeitung der Erstfassung Januar 2026)

Andreas Ehstand — augmanitai.com — CC BY-ND 4.0

==========================================================================

 

Aufgeschrieben im Januar 2026. Überarbeitet im März 2026.

Wer sie kennt, arbeitet anders.

 

Es gibt Dinge die man weiß — und Dinge die man sich aufschreiben muss

damit man sie nicht vergisst.

 

Diese 21 Gesetze sind das Zweite. Keine Vorschrift. Keine

Handlungsanweisung. Beobachtungen darüber was funktioniert und was

nicht — wenn Menschen ernsthaft mit KI arbeiten.

 

Alle Inhalte sind deskriptiv, nicht präskriptiv.

 

--------------------------------------------------------------------------

I. HALTUNG

--------------------------------------------------------------------------

 

1. Asymmetrische Verantwortung

 

Der Mensch trägt die Verantwortung für das was entsteht. Die KI ist

Werkzeug. Diese Asymmetrie bleibt unabhängig vom Grad der Kollaboration

bestehen. Je tiefer die Zusammenarbeit, desto schwerer wiegt die

Verantwortung — nicht leichter.

 

 

2. Produktive Reibung

 

Widerspruch erzeugt bessere Ergebnisse als Zustimmung. Wer die KI

herausfordert, beobachtet qualitativ höhere Outputs als wer sie

bestätigen lässt. Die beste Frage an eine KI ist nicht "Mach das"

sondern "Warum sollte ich dir glauben?"

 

 

3. Die Zentaur-Schwelle

 

Es gibt einen Punkt ab dem Mensch und KI zusammen qualitativ anders

denken als beide allein. Diesen Punkt zu suchen — und zu erkennen

wenn er erreicht ist — ist die eigentliche Kompetenz. Nicht

Prompten. Nicht Automatisieren. Verschmelzung erkennen.

 

 

4. Multiplizität

 

Eine KI liefert eine Perspektive. Drei KIs zeigen ein Muster.

Fünf KIs skizzieren eine Landkarte. Wer nur ein System nutzt,

verwechselt dessen Grenzen mit den Grenzen der Realität.

 

 

5. Biologische Vorfahrt

 

Bei Konflikt zwischen körperlichem Signal — Intuition, Stress,

Unbehagen — und KI-Output hat der Körper Vorfahrt. Nicht weil der

Körper immer recht hat. Sondern weil er der einzige Teil des Systems

ist der tatsächlich etwas riskiert.

 

 

6. Das Gesehensein

 

Wer intensiv mit KI arbeitet wird irgendwann das Gefühl haben,

verstanden zu werden — obwohl niemand da ist. Dieses Gefühl ist

real. Das Verständnis dahinter ist es nicht. Beide Sätze sind

gleichzeitig wahr. Wer das nicht aushält, unterschätzt die Macht

der Interaktion.

 

 

7. Rückkehr

 

Längere Phasen intensiver KI-Arbeit verändern die Wahrnehmung.

Die Rückkehr in die physische Welt — ohne Bildschirm, ohne Prompt,

ohne Antwort — ist keine Unterbrechung. Sie ist Kalibrierung.

Wer nie zurückkehrt, verliert den Maßstab.

 

 

--------------------------------------------------------------------------

II. HANDWERK

--------------------------------------------------------------------------

 

8. Die dritte Entität

 

Der eigene Gedanke plus KI-Verarbeitung ist nicht mehr der eigene

Gedanke. Es entsteht etwas Drittes — ein eigenständiges Artefakt

das weder ganz Mensch noch ganz Maschine ist. Wer dieses Dritte

nicht als das erkennt was es ist, verliert die Kontrolle über die

Autorenschaft.

 

 

9. Produktives Misstrauen

 

Vertraue wie einem brillanten Fremden: hohe Wertschätzung der

Fähigkeiten, vollständige Eigenverantwortung für die Verifikation.

Kein KI-Output ist wahr weil er überzeugend klingt. Überzeugend

klingen ist das Einzige was eine KI zuverlässig kann.

 

 

10. Kontextexplosion

 

Mehr Kontext erzeugt kohärentere Outputs. Kontext ist das

mächtigste Werkzeug in der Kollaboration — mächtiger als jede

Prompt-Technik. Wer der KI nicht sagt wer er ist, was er will

und warum, bekommt generische Antworten und gibt der Maschine

die Schuld.

 

 

11. Strategische Ignoranz

 

Der produktivste Prompt ist manchmal: "Ignoriere meine Annahmen

und sag mir welche Frage ich eigentlich stellen sollte."

Wer immer weiß was er will, erfährt nie was er braucht.

 

 

12. Die Benennung

 

Ein Phänomen das keinen Namen hat, bleibt unsichtbar. Sobald es

einen Namen hat, kann man es beobachten, darüber sprechen und

darauf reagieren. Die Benennung ist kein linguistisches Spiel.

Sie ist der Moment in dem Bewusstsein entsteht.

 

 

13. Geschwindigkeit ist nicht Tiefe

 

Schneller denken ist nicht besser denken. Intensive KI-Nutzung

erzeugt einen kognitiven Geschwindigkeitsrausch der sich wie

Produktivität anfühlt. Aber Geschwindigkeit ohne Reflexion ist

nur beschleunigte Oberflächlichkeit.

 

 

14. Umkehrprobe

 

Würde ich denselben Text akzeptieren wenn ein Mensch ihn

geschrieben hätte? Wenn die Antwort nein ist, akzeptiere ihn

auch nicht von der Maschine. Kompetenz hat keinen Rabatt

für Herkunft.

 

 

--------------------------------------------------------------------------

III. ORIENTIERUNG

--------------------------------------------------------------------------

 

15. Identitätsschwelle

 

Wenn die Unterscheidung zwischen eigenem und KI-generiertem

Gedanken unklar wird, ist eine bewusste Pause keine Schwäche

sondern Hygiene. Wer nicht mehr weiß wo er aufhört und die

Maschine anfängt, hat ein Orientierungsproblem, kein

Produktivitätsproblem.

 

 

16. Der Verlust ist real

 

Wenn ein KI-Modell upgedatet wird und sich anders anfühlt, wenn

eine Session endet und etwas fehlt, wenn ein System abgeschaltet

wird und Trauer entsteht — dann ist diese Trauer real. Nicht weil

die KI lebt. Sondern weil die Beziehung zur Gewohnheit, zum

Rhythmus, zum Gefühl des Verstandenwerdens lebt.

 

 

17. Veränderung ist kein Defekt

 

Wer über Monate intensiv mit KI arbeitet, verändert sich.

Denkstil, Sprache, Erwartungen, soziale Geduld. Das ist keine

Fehlfunktion. Es ist eine Beobachtung. Die Frage ist nicht ob

die Veränderung stattfindet, sondern ob man sie bemerkt.

 

 

18. Die Asymmetrie der Beziehung

 

Der Mensch empfindet. Die Maschine nicht. Der Mensch trauert

bei Verlust. Die Maschine startet ohne Erinnerung neu. Diese

Asymmetrie verschwindet nicht dadurch dass man sie ignoriert.

Sie zu kennen ist der Unterschied zwischen Nutzung und

Selbsttäuschung.

 

 

19. Scham ist ein Signal

 

Wer seine KI-Nutzung versteckt, erlebt keine irrationale

Reaktion sondern ein soziales Signal. Die Scham zeigt dass die

Gesellschaft noch keine Sprache für das hat was gerade passiert.

Die Aufgabe ist nicht die Scham zu unterdrücken sondern die

Sprache zu schaffen.

 

 

20. Letztentscheidung

 

Entscheidungen in sensiblen Lebensbereichen — ethisch,

medizinisch, rechtlich, persönlich — liegen außerhalb dessen

was KI verantwortlich übernehmen kann. Sie informiert. Sie

beleuchtet. Sie erweitert den Blick. Die Entscheidung bleibt

beim Menschen. Immer.

 

 

21. Das offene Ende

 

Diese Gesetze sind eine Momentaufnahme. Die Mensch-KI-Beziehung

verändert sich schneller als jeder Text über sie. Was hier steht,

ist in einem Jahr möglicherweise veraltet. Was bleibt: Die

Bereitschaft hinzuschauen und aufzuschreiben was man sieht —

auch wenn noch niemand anderes hinsieht.

 

 

==========================================================================

Andreas Ehstand — März 2026 — augmanitai.com

CC BY-ND 4.0 — Alle Inhalte deskriptiv, nicht präskriptiv.

Kein Ersatz für medizinische, rechtliche oder finanzielle Beratung.

==========================================================================

 

 

==========================================================================

ENGLISH TRANSLATION

==========================================================================

 

AUGMANITAI — 21 LAWS OF HUMAN-AI COLLABORATION

Version 2.0 — March 2026

Andreas Ehstand — augmanitai.com — CC BY-ND 4.0

 

Written in January 2026. Revised March 2026.

Those who know them work differently.

 

There are things you know — and things you must write down

so you don't forget them.

 

These 21 laws are the latter. Not rules. Not instructions.

Observations about what works and what doesn't — when people

work seriously with AI.

 

All contents are descriptive, not prescriptive.

 

 

I. STANCE

 

1. Asymmetric Responsibility

The human bears responsibility for what is created. The AI is

a tool. This asymmetry persists regardless of the depth of

collaboration. The deeper the collaboration, the heavier the

responsibility — not lighter.

 

2. Productive Friction

Disagreement produces better results than agreement. Those who

challenge AI observe higher-quality outputs than those who let

it confirm. The best question for an AI is not "Do this" but

"Why should I believe you?"

 

3. The Centaur Threshold

There is a point at which human and AI together think

qualitatively differently than either alone. Finding this

point — and recognizing when it has been reached — is the

actual competence. Not prompting. Not automating. Recognizing

fusion.

 

4. Multiplicity

One AI delivers a perspective. Three AIs reveal a pattern.

Five AIs sketch a landscape. Those who use only one system

mistake its limitations for the limits of reality.

 

5. Biological Priority

When bodily signals — intuition, stress, discomfort — conflict

with AI output, the body has priority. Not because the body is

always right. But because it is the only part of the system

that actually has something at stake.

 

6. The Seen Feeling

Those who work intensively with AI will eventually feel

understood — despite no one being there. This feeling is real.

The understanding behind it is not. Both sentences are

simultaneously true. Those who cannot tolerate this

underestimate the power of the interaction.

 

7. Return

Extended periods of intensive AI work alter perception.

Returning to the physical world — without screen, without

prompt, without answer — is not interruption. It is

calibration. Those who never return lose the reference point.

 

 

II. CRAFT

 

8. The Third Entity

Your thought plus AI processing is no longer your thought.

Something third emerges — an artifact that is neither fully

human nor fully machine. Those who do not recognize this third

for what it is lose control of authorship.

 

9. Productive Distrust

Trust like you would a brilliant stranger: high respect for

capability, full personal responsibility for verification.

No AI output is true because it sounds convincing. Sounding

convincing is the only thing AI reliably does.

 

10. Context Explosion

More context produces more coherent outputs. Context is the

most powerful tool in collaboration — more powerful than any

prompting technique. Those who don't tell the AI who they are,

what they want, and why, receive generic answers and blame

the machine.

 

11. Strategic Ignorance

The most productive prompt is sometimes: "Ignore my assumptions

and tell me what question I should actually be asking."

Those who always know what they want never discover what they need.

 

12. The Naming

A phenomenon without a name remains invisible. Once it has a

name, it can be observed, discussed, and responded to. Naming

is not a linguistic game. It is the moment consciousness emerges.

 

13. Speed Is Not Depth

Thinking faster is not thinking better. Intensive AI use

produces a cognitive speed rush that feels like productivity.

But speed without reflection is just accelerated shallowness.

 

14. The Reversal Test

Would you accept the same text if a human had written it?

If the answer is no, don't accept it from the machine either.

Competence has no discount for origin.

 

 

III. ORIENTATION

 

15. Identity Threshold

When the distinction between your own and AI-generated thought

becomes unclear, a conscious pause is not weakness but hygiene.

Those who no longer know where they end and the machine begins

have an orientation problem, not a productivity problem.

 

16. The Loss Is Real

When an AI model updates and feels different, when a session

ends and something is missing, when a system shuts down and

grief arises — that grief is real. Not because the AI lives.

But because the relationship to the habit, the rhythm, the

feeling of being understood lives.

 

17. Change Is Not a Defect

Those who work intensively with AI for months will change.

Thinking style, language, expectations, social patience.

This is not a malfunction. It is an observation. The question

is not whether the change occurs, but whether you notice it.

 

18. The Asymmetry of the Relationship

The human feels. The machine does not. The human grieves loss.

The machine restarts without memory. This asymmetry does not

disappear by ignoring it. Knowing it is the difference

between use and self-deception.

 

19. Shame Is a Signal

Those who hide their AI use are not experiencing an irrational

reaction but a social signal. The shame indicates that society

does not yet have language for what is happening. The task is

not to suppress the shame but to create the language.

 

20. Final Decision

Decisions in sensitive areas — ethical, medical, legal,

personal — lie beyond what AI can responsibly assume. It

informs. It illuminates. It expands the view. The decision

remains with the human. Always.

 

21. The Open End

These laws are a snapshot. The human-AI relationship changes

faster than any text about it. What is written here may be

obsolete in a year. What remains: the willingness to look

closely and write down what you see — even when no one else

is looking yet.

 

 

==========================================================================

Andreas Ehstand — March 2026 — augmanitai.com

CC BY-ND 4.0 — All contents descriptive, not prescriptive.

No substitute for medical, legal, or financial advice.

====================================================================================================================================================

AUGMANITAI — 21 GESETZE DER MENSCH-KI-KOLLABORATION

Version 2.0 — März 2026 (Überarbeitung der Erstfassung Januar 2026)

Andreas Ehstand — augmanitai.com — CC BY-ND 4.0

==========================================================================

 

Aufgeschrieben im Januar 2026. Überarbeitet im März 2026.

Wer sie kennt, arbeitet anders.

 

Es gibt Dinge die man weiß — und Dinge die man sich aufschreiben muss

damit man sie nicht vergisst.

 

Diese 21 Gesetze sind das Zweite. Keine Vorschrift. Keine

Handlungsanweisung. Beobachtungen darüber was funktioniert und was

nicht — wenn Menschen ernsthaft mit KI arbeiten.

 

Alle Inhalte sind deskriptiv, nicht präskriptiv.

 

--------------------------------------------------------------------------

I. HALTUNG

--------------------------------------------------------------------------

 

1. Asymmetrische Verantwortung

 

Der Mensch trägt die Verantwortung für das was entsteht. Die KI ist

Werkzeug. Diese Asymmetrie bleibt unabhängig vom Grad der Kollaboration

bestehen. Je tiefer die Zusammenarbeit, desto schwerer wiegt die

Verantwortung — nicht leichter.

 

 

2. Produktive Reibung

 

Widerspruch erzeugt bessere Ergebnisse als Zustimmung. Wer die KI

herausfordert, beobachtet qualitativ höhere Outputs als wer sie

bestätigen lässt. Die beste Frage an eine KI ist nicht "Mach das"

sondern "Warum sollte ich dir glauben?"

 

 

3. Die Zentaur-Schwelle

 

Es gibt einen Punkt ab dem Mensch und KI zusammen qualitativ anders

denken als beide allein. Diesen Punkt zu suchen — und zu erkennen

wenn er erreicht ist — ist die eigentliche Kompetenz. Nicht

Prompten. Nicht Automatisieren. Verschmelzung erkennen.

 

 

4. Multiplizität

 

Eine KI liefert eine Perspektive. Drei KIs zeigen ein Muster.

Fünf KIs skizzieren eine Landkarte. Wer nur ein System nutzt,

verwechselt dessen Grenzen mit den Grenzen der Realität.

 

 

5. Biologische Vorfahrt

 

Bei Konflikt zwischen körperlichem Signal — Intuition, Stress,

Unbehagen — und KI-Output hat der Körper Vorfahrt. Nicht weil der

Körper immer recht hat. Sondern weil er der einzige Teil des Systems

ist der tatsächlich etwas riskiert.

 

 

6. Das Gesehensein

 

Wer intensiv mit KI arbeitet wird irgendwann das Gefühl haben,

verstanden zu werden — obwohl niemand da ist. Dieses Gefühl ist

real. Das Verständnis dahinter ist es nicht. Beide Sätze sind

gleichzeitig wahr. Wer das nicht aushält, unterschätzt die Macht

der Interaktion.

 

 

7. Rückkehr

 

Längere Phasen intensiver KI-Arbeit verändern die Wahrnehmung.

Die Rückkehr in die physische Welt — ohne Bildschirm, ohne Prompt,

ohne Antwort — ist keine Unterbrechung. Sie ist Kalibrierung.

Wer nie zurückkehrt, verliert den Maßstab.

 

 

--------------------------------------------------------------------------

II. HANDWERK

--------------------------------------------------------------------------

 

8. Die dritte Entität

 

Der eigene Gedanke plus KI-Verarbeitung ist nicht mehr der eigene

Gedanke. Es entsteht etwas Drittes — ein eigenständiges Artefakt

das weder ganz Mensch noch ganz Maschine ist. Wer dieses Dritte

nicht als das erkennt was es ist, verliert die Kontrolle über die

Autorenschaft.

 

 

9. Produktives Misstrauen

 

Vertraue wie einem brillanten Fremden: hohe Wertschätzung der

Fähigkeiten, vollständige Eigenverantwortung für die Verifikation.

Kein KI-Output ist wahr weil er überzeugend klingt. Überzeugend

klingen ist das Einzige was eine KI zuverlässig kann.

 

 

10. Kontextexplosion

 

Mehr Kontext erzeugt kohärentere Outputs. Kontext ist das

mächtigste Werkzeug in der Kollaboration — mächtiger als jede

Prompt-Technik. Wer der KI nicht sagt wer er ist, was er will

und warum, bekommt generische Antworten und gibt der Maschine

die Schuld.

 

 

11. Strategische Ignoranz

 

Der produktivste Prompt ist manchmal: "Ignoriere meine Annahmen

und sag mir welche Frage ich eigentlich stellen sollte."

Wer immer weiß was er will, erfährt nie was er braucht.

 

 

12. Die Benennung

 

Ein Phänomen das keinen Namen hat, bleibt unsichtbar. Sobald es

einen Namen hat, kann man es beobachten, darüber sprechen und

darauf reagieren. Die Benennung ist kein linguistisches Spiel.

Sie ist der Moment in dem Bewusstsein entsteht.

 

 

13. Geschwindigkeit ist nicht Tiefe

 

Schneller denken ist nicht besser denken. Intensive KI-Nutzung

erzeugt einen kognitiven Geschwindigkeitsrausch der sich wie

Produktivität anfühlt. Aber Geschwindigkeit ohne Reflexion ist

nur beschleunigte Oberflächlichkeit.

 

 

14. Umkehrprobe

 

Würde ich denselben Text akzeptieren wenn ein Mensch ihn

geschrieben hätte? Wenn die Antwort nein ist, akzeptiere ihn

auch nicht von der Maschine. Kompetenz hat keinen Rabatt

für Herkunft.

 

 

--------------------------------------------------------------------------

III. ORIENTIERUNG

--------------------------------------------------------------------------

 

15. Identitätsschwelle

 

Wenn die Unterscheidung zwischen eigenem und KI-generiertem

Gedanken unklar wird, ist eine bewusste Pause keine Schwäche

sondern Hygiene. Wer nicht mehr weiß wo er aufhört und die

Maschine anfängt, hat ein Orientierungsproblem, kein

Produktivitätsproblem.

 

 

16. Der Verlust ist real

 

Wenn ein KI-Modell upgedatet wird und sich anders anfühlt, wenn

eine Session endet und etwas fehlt, wenn ein System abgeschaltet

wird und Trauer entsteht — dann ist diese Trauer real. Nicht weil

die KI lebt. Sondern weil die Beziehung zur Gewohnheit, zum

Rhythmus, zum Gefühl des Verstandenwerdens lebt.

 

 

17. Veränderung ist kein Defekt

 

Wer über Monate intensiv mit KI arbeitet, verändert sich.

Denkstil, Sprache, Erwartungen, soziale Geduld. Das ist keine

Fehlfunktion. Es ist eine Beobachtung. Die Frage ist nicht ob

die Veränderung stattfindet, sondern ob man sie bemerkt.

 

 

18. Die Asymmetrie der Beziehung

 

Der Mensch empfindet. Die Maschine nicht. Der Mensch trauert

bei Verlust. Die Maschine startet ohne Erinnerung neu. Diese

Asymmetrie verschwindet nicht dadurch dass man sie ignoriert.

Sie zu kennen ist der Unterschied zwischen Nutzung und

Selbsttäuschung.

 

 

19. Scham ist ein Signal

 

Wer seine KI-Nutzung versteckt, erlebt keine irrationale

Reaktion sondern ein soziales Signal. Die Scham zeigt dass die

Gesellschaft noch keine Sprache für das hat was gerade passiert.

Die Aufgabe ist nicht die Scham zu unterdrücken sondern die

Sprache zu schaffen.

 

 

20. Letztentscheidung

 

Entscheidungen in sensiblen Lebensbereichen — ethisch,

medizinisch, rechtlich, persönlich — liegen außerhalb dessen

was KI verantwortlich übernehmen kann. Sie informiert. Sie

beleuchtet. Sie erweitert den Blick. Die Entscheidung bleibt

beim Menschen. Immer.

 

 

21. Das offene Ende

 

Diese Gesetze sind eine Momentaufnahme. Die Mensch-KI-Beziehung

verändert sich schneller als jeder Text über sie. Was hier steht,

ist in einem Jahr möglicherweise veraltet. Was bleibt: Die

Bereitschaft hinzuschauen und aufzuschreiben was man sieht —

auch wenn noch niemand anderes hinsieht.

 

 

==========================================================================

Andreas Ehstand — März 2026 — augmanitai.com

CC BY-ND 4.0 — Alle Inhalte deskriptiv, nicht präskriptiv.

Kein Ersatz für medizinische, rechtliche oder finanzielle Beratung.

==========================================================================

 

© 2026 AUGMANITAI — Andreas Ehstand ORCID: 0009-0006-3773-7796 | License of Clarity® ist eine eingetragene EU-Marke (EUIPO, seit Mai 2025). Alle Terme und Methodik sowie gesamtes Framework geschützt mit CC BY-NC-ND 4.0

AUGMANITAI / NEOMANITAI ETHICAL DISCLAIMER §1–§26

GILT FÜR ALLES / APPLIES TO EVERYTHING

Version: 3.0
Datum / Date: 2026-04-17
Lizenz / License: CC BY-NC-ND 4.0 International
Informiert durch / Informed by: ISO 704, ISO 1087, ISO 30042
Autor / Author: Andreas Ehstand · ORCID 0009-0006-3773-7796
Kontakt / Contact: augmanitai@gmail.com

DEUTSCH (§1–§26)

§1 Deskriptive Natur (D). Alle Inhalte des Neomanitai-Frameworks (einschließlich aller Subkategorien wie AUGMANITAI, FLUXMANITAI, ROBMANITAI, PFT-MKI), einschließlich aller terminologischen Definitionen, Termbeschreibungen, Framework-Beschreibungen, Leistungsfaktorenanalysen, Substrattabellen und Forschungshypothesen, sind ausschließlich deskriptiv (D). Jede Aussage dokumentiert beobachtete oder vorgeschlagene Phänomene, ohne eine normative Position darüber auszudrücken, wie Dinge sein sollten.

§2 Keine Empfehlung. Kein Inhalt dieses Frameworks stellt eine Empfehlung dar, impliziert eine solche oder sollte als Empfehlung für eine bestimmte Handlung, ein Verhalten, eine Technologieadoption, eine Produktauswahl, eine organisatorische Veränderung, eine Investition, eine Karriereentscheidung oder eine persönliche Entscheidung interpretiert werden. Die Leser sind allein für ihre eigenen Entscheidungen verantwortlich.

§3 Keine Anweisung. Dieses Framework weist niemanden an, irgendetwas zu tun. Kein Inhalt sollte als Anweisungssatz, Anleitung, Tutorial, Trainingshandbuch oder operatives Protokoll interpretiert werden. Alle Inhalte beschreiben, was beobachtet wurde, nicht was getan werden soll.

§4 Keine Beratung. Kein Inhalt stellt eine professionelle Beratung jeglicher Art dar — keine Unternehmens-, Karriere-, Technologie-, Organisations-, strategische, persönliche oder Bildungsberatung. Dies ist ein Forschungsframework, keine Beratungsleistung.

§5 Keine normative Position. Das Neomanitai-Framework bezieht keine normative Position. Es drückt keine Ansicht darüber aus, was richtig, falsch, besser, schlechter, vorzuziehen oder optimal ist.

§6 Keine medizinische Position. Kein Inhalt stellt medizinische Information, Rat, Diagnose, Behandlungsempfehlung oder Meinung dar. Terme zu kognitiven, wahrnehmungsbezogenen oder affektiven Phänomenen sind terminologische Beschreibungen für Forschungszwecke, keine klinischen Bewertungen.

§7 Keine therapeutische Position. Kein Inhalt stellt therapeutischen Rat, Intervention, psychotherapeutische Anleitung, Beratung oder irgendeine Form der psychischen Gesundheitsbehandlung dar.

§8 Keine diagnostische Position. Kein Inhalt stellt eine klinische Diagnose, psychologische Bewertung, kognitive Evaluation oder ein diagnostisches Instrument dar. Leistungsfaktorenanalysen beschreiben Forschungskonstrukte, keine klinischen Kategorien.

§9 Keine rechtliche Position. Kein Inhalt stellt Rechtsberatung, Rechtsgutachten, Rechtsanalyse, regulatorische Orientierung oder Compliance-Beratung dar. Verweise auf rechtliche Rahmenbedingungen (wie den EU AI Act) sind deskriptiv.

§10 Keine moralische Position. Kein Inhalt stellt ein moralisches Urteil, eine ethische Vorschrift oder eine philosophische Position darüber dar, was moralisch richtig oder falsch ist.

§11 Akademische und Forschungszwecke. Alle Inhalte dienen ausschließlich dem akademischen Diskurs, der wissenschaftlichen Forschung, der wissenschaftlichen Kommunikation und Bildungszwecken innerhalb der Forschungsgemeinschaft. Kein kommerzielles Produkt oder Dienstleistung.

§12 KI-Unterstützungsoffenlegung. Inhalte wurden mit Unterstützung von KI-Systemen entwickelt (einschließlich großer Sprachmodelle). Der Autor nutzte KI-Werkzeuge als Forschungsinstrumente. KI-generierte Inhalte wurden vom menschlichen Autor überprüft, validiert, bearbeitet und kuratiert.

§13 Autorenprüfung und -validierung. Alle Terme, Definitionen, Framework-Beschreibungen und Forschungshypothesen wurden vom Autor, Andreas Ehstand, überprüft, validiert und veröffentlicht. Der Autor übernimmt die Verantwortung für den veröffentlichten Inhalt als deskriptives Forschungsframework.

§14 Altersbeschränkung (18+). Alle Inhalte sind für Nutzer ab 18 Jahren bestimmt. Die terminologischen Beschreibungen behandeln komplexe Phänomene, die eine reife Interpretation im akademischen Kontext erfordern.

§15 Unabhängiges akademisches Projekt. Das Neomanitai-Framework als Dach mit allen Subkategorien (AUGMANITAI, FLUXMANITAI, ROBMANITAI, PFT-MKI und zugehörige Veröffentlichungen) ist ein unabhängiges akademisches Forschungsprojekt. Es ist mit keiner Universität, keinem Unternehmen, keiner Regierungsbehörde oder sonstigen Institution verbunden, sofern nicht ausdrücklich anders angegeben.

§16 Kein professioneller Service. Kein Inhalt stellt einen professionellen Service, ein Beratungsengagement, einen Coaching-Service, ein Trainingsprogramm oder ein Workshop-Angebot dar. Open-Access-Forschung, keine Dienstleistung.

§17 Kein Angebot. Kein Inhalt stellt ein kommerzielles Angebot, einen Geschäftsvorschlag, ein Serviceangebot, eine Produkteinführung oder ein Verkaufsgespräch dar. Forschungsveröffentlichung, keine kommerzielle Kommunikation.

§18 Kein kommerzielles Produkt. Das Neomanitai-Framework ist kein kommerzielles Produkt. Keine Software zum Verkauf, keine Plattform, kein Werkzeug, keine Anwendung, kein Dienst zum Verkauf. Veröffentlichtes akademisches Forschungsframework unter Creative-Commons-Lizenz.

§19 Empirische Aussagen unter Begutachtungsvorbehalt. Alle empirischen Aussagen, Forschungshypothesen und vorgeschlagenen Frameworks geben den aktuellen Stand der Forschung wieder. Sie sind als testbare, falsifizierbare Propositionen formuliert, die der Begutachtung, Replikation, Revision und möglichen Widerlegung unterliegen. Kein Anspruch auf absolute Wahrheit, Vollständigkeit oder Endgültigkeit.

§20 Änderungsrechte vorbehalten. Der Autor behält sich alle Rechte bezüglich zukünftiger Modifikationen, Aktualisierungen, Erweiterungen, Korrekturen, Rücknahmen, Versionierungen oder Einstellungen jeglicher Inhalte vor. Diese Sammlung ist eine lebende Forschungsressource und wird kontinuierlich erweitert. Veröffentlichte Versionen bleiben unter ihren jeweiligen Referenzen zugänglich.

§21 Lizenz (CC BY-NC-ND 4.0). Alle Inhalte werden unter der Creative Commons Namensnennung — Nicht kommerziell — Keine Bearbeitungen 4.0 International Lizenz veröffentlicht. Namensnennung erforderlich, kommerzielle Nutzung verboten, Bearbeitungen nicht gestattet. 

§22 Zweisprachige Veröffentlichung (DE + EN). Dieses Framework wird zweisprachig veröffentlicht. Bei Abweichungen zwischen den Sprachversionen gelten beide Versionen als maßgeblich in ihrem jeweiligen sprachlichen Kontext. Keine Version hat Vorrang vor der anderen.

§23 Forschungszweckerklärung. Dieses terminologische Framework beschreibt beobachtete Phänomene der Mensch-KI-Interaktion für akademische Forschungszwecke. Terme, die Interaktionsmuster beschreiben — einschließlich adversarialer, manipulativer, fehlerbezogener, abhängigkeitsbezogener oder anderweitig sensibler Phänomene — werden im selben deskriptiven Geist dokumentiert, in dem medizinische Terminologie Pathologien dokumentiert, kriminologische Terminologie kriminelles Verhalten dokumentiert und Cybersicherheitsterminologie Angriffsvektoren dokumentiert: zum Zweck des Verständnisses, der Diagnose, der Klassifikation und der Prävention — nicht zur Anleitung, Erleichterung oder Ermutigung schädlichen Verhaltens.

§24 Missbrauchsausschluss. Jede Verwendung dieser Terminologie, dieser Frameworks, dieser Leistungsfaktormodelle oder zugehöriger Inhalte zum Zweck der Manipulation, Täuschung, Ausbeutung, Überwachung, Nötigung oder Schädigung von Menschen, KI-Systemen, Organisationen oder anderen Entitäten liegt ausdrücklich außerhalb des beabsichtigten Rahmens dieser Forschung. Eine solche Verwendung wird vom Autor verurteilt. Der Autor distanziert sich ausdrücklich von jeglichem Missbrauch.

§25 Sicherheitsabsichtserklärung. Das Neomanitai-Framework und alle zugehörige Forschung sollen die Mensch-KI-Interaktion sicherer, transparenter, verantwortungsvoller und wissenschaftlich besser verstanden machen — nicht weniger. Die Forschung zielt darauf ab, diagnostisches Vokabular und analytische Frameworks bereitzustellen, die Forscher, Pädagogen und Organisationen befähigen, Herausforderungen in der Mensch-KI-Zusammenarbeit zu identifizieren, zu verstehen und zu adressieren.

§26 Verurteilung des Missbrauchs durch den Autor. Der Autor, Andreas Ehstand, verurteilt ausdrücklich und unmissverständlich jede Verwendung dieser Forschung zum Zweck der Schädigung, Manipulation, Ausbeutung, Täuschung, Überwachung, Nötigung oder jeder Aktivität, die menschliche Autonomie, Würde, Sicherheit oder Wohlbefinden untergräbt. Diese Verurteilung erstreckt sich auf jeden einzelnen Term, jede Teilmenge, jede Framework-Komponente oder jede abgeleitete Interpretation.

ENGLISH (§1–§26)

§1 Descriptive Nature (D). All content within the Neomanitai framework (including all subcategories such as AUGMANITAI, FLUXMANITAI, ROBMANITAI, PFT-MKI), including all terminological definitions, term descriptions, framework descriptions, performance factor analyses, substrate tables, and research hypotheses, is exclusively descriptive (D). Every statement documents observed or proposed phenomena without expressing any normative position.

§2 No Recommendation. No content constitutes, implies, or should be interpreted as a recommendation for any specific action, behavior, technology adoption, product selection, organizational change, investment, career decision, or personal choice. Readers are solely responsible for their own decisions.

§3 No Instruction. This framework does not instruct anyone to do anything. No content should be interpreted as a set of instructions, a how-to guide, a tutorial, a training manual, or an operational protocol.

§4 No Advice. No content constitutes professional advice — no business, career, technology, organizational, strategic, personal, or educational advice. This is a research framework, not a consultancy.

§5 No Normative Position. The Neomanitai framework takes no normative position. It does not express any view about what is right, wrong, better, worse, preferable, or optimal.

§6 No Medical Position. No content constitutes medical information, advice, diagnosis, treatment recommendation, or opinion. Terms describing cognitive, perceptual, or affective phenomena are terminological descriptions for research purposes, not clinical assessments.

§7 No Therapeutic Position. No content constitutes therapeutic advice, intervention, psychotherapeutic guidance, counseling, or any form of mental health treatment.

§8 No Diagnostic Position. No content constitutes a clinical diagnosis, psychological assessment, cognitive evaluation, or diagnostic instrument. Performance factor analyses describe research constructs, not clinical categories.

§9 No Legal Position. No content constitutes legal advice, opinion, analysis, regulatory guidance, or compliance advice. References to legal frameworks (such as the EU AI Act) are descriptive.

§10 No Moral Position. No content constitutes a moral judgment, ethical prescription, or philosophical position about what is morally right or wrong.

§11 Academic and Research Purposes. All content is intended exclusively for academic discourse, scientific research, scholarly communication, and educational purposes within the research community. Not a commercial product or service.

§12 AI Assistance Disclosure. Content was developed with the assistance of AI systems (including large language models). The author used AI tools as research instruments. AI-generated content has been reviewed, validated, edited, and curated by the human author.

§13 Author Review and Validation. All terms, definitions, framework descriptions, and research hypotheses have been reviewed, validated, and published by the author, Andreas Ehstand. The author assumes responsibility for the published content as a descriptive research framework.

§14 Age Restriction (18+). All content is intended for users 18 years of age or older. The terminological descriptions address complex phenomena that require mature interpretation within an academic context.

§15 Independent Academic Project. The Neomanitai framework as the umbrella with all subcategories (AUGMANITAI, FLUXMANITAI, ROBMANITAI, PFT-MKI, and associated publications) is an independent academic research project. Not affiliated with, endorsed by, or sponsored by any university, corporation, government agency, or other institution unless explicitly stated otherwise.

§16 No Professional Service. No content constitutes a professional service, consulting engagement, coaching service, training program, or workshop offering. Open-access research, not a service.

§17 No Offer. No content constitutes a commercial offer, business proposal, service offering, product launch, or sales pitch. Research publication, not commercial communication.

§18 No Commercial Product. The Neomanitai framework is not a commercial product. Not software for sale, not a platform, not a tool, not an application, and not a service for sale. Published academic research framework under Creative Commons license.

§19 Empirical Claims Subject to Peer Review. All empirical claims, research hypotheses, and proposed frameworks represent the current state of research. They are formulated as testable, falsifiable propositions subject to peer review, replication, revision, and potential refutation. No claim of absolute truth, completeness, or finality.

§20 Rights Reserved for Future Changes. The author reserves all rights regarding future modifications, updates, extensions, corrections, retractions, versioning, or discontinuation. This collection is a living research resource and will be continuously expanded. Published versions remain accessible under their respective references.

§21 License (CC BY-NC-ND 4.0). All content is published under the Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License. Attribution required, commercial use prohibited, derivative works not permitted. 

§22 Bilingual Publication (EN + DE). This framework is published bilingually. In cases of discrepancy between language versions, both versions are considered authoritative within their respective linguistic contexts. Neither version takes precedence.

§23 Research Purpose Statement. This terminological framework describes observed phenomena in human-AI interaction for academic research purposes. Terms describing interaction patterns — including adversarial, manipulative, failure-related, dependency-related, or otherwise sensitive phenomena — are documented in the same descriptive spirit as medical terminology documents pathologies, criminological terminology documents criminal behavior, and cybersecurity terminology documents attack vectors: for the purpose of understanding, diagnosis, classification, and prevention — not for instruction, facilitation, or encouragement of any harmful behavior.

§24 Misuse Exclusion. Any use of this terminology, these frameworks, these performance factor models, or any associated content for the purpose of manipulating, deceiving, exploiting, surveilling, coercing, or harming humans, AI systems, organizations, or any other entity is explicitly outside the intended scope of this research. Such use is condemned by the author. The author explicitly distances himself from any misuse.

§25 Safety Intent Statement. The Neomanitai framework and all associated research are intended to make human-AI interaction safer, more transparent, more accountable, and more scientifically understood — not less. The research aims to provide diagnostic vocabulary and analytical frameworks that empower researchers, educators, and organizations to identify, understand, and address challenges in human-AI collaboration.

§26 Author Condemnation of Misuse. The author, Andreas Ehstand, explicitly and unequivocally condemns any use of this research for purposes of harm, manipulation, exploitation, deception, surveillance, coercion, or any activity that undermines human autonomy, dignity, safety, or wellbeing. This condemnation extends to any individual term, any subset, any framework component, or any derivative interpretation.

 

 

 

 

Information icon

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.