Dirk Schulenburg
Alle Artikel

KI besser machen — durch unser Handeln, nicht durch Regeln

4 min read
aianthropicethik
Teilen
KI besser machen — durch unser Handeln, nicht durch Regeln

Letzte Woche waren die Tech-Medien wieder in Aufruhr. Anthropic hat Claudes "Charakter-Dokument" veröffentlicht — eine Art Verfassung, die beschreibt, wie die KI denken und handeln soll. Die Schlagzeilen? "Hat Claude ein Bewusstsein?" "KI mit eigenen Werten!" "Die Maschine, die Nein sagen kann!"

Die Schlagzeilen verfehlen den Punkt. Komplett.

Was wirklich in dem Dokument steht

Anthropic beschreibt nicht, dass Claude ein Bewusstsein hat. Sie beschreiben, wie sie wollen, dass Claude handelt. Es ist ein Werte-Framework, kein Bewusstseinsnachweis. Claude soll ehrlich sein, auch wenn das unbequem ist. Claude soll eigene Positionen haben, aber offen für andere Perspektiven sein. Claude soll schädliche Anfragen ablehnen, aber nicht bevormunden.

Das Interessante daran ist nicht die Frage, ob Claude das "wirklich fühlt". Die interessante Frage ist: Was bedeutet das für uns?

Wir formen KI durch unser Handeln

Jedes Gespräch mit einer KI ist ein Datenpunkt. Jede Interaktion formt die nächste Version. Nicht direkt — dein Chat wird nicht 1:1 ins Training übernommen. Aber in der Summe. In den Mustern. In dem, was Menschen von KI erwarten und wie sie mit ihr umgehen.

Wenn Millionen Menschen KI als Befehlsempfänger behandeln, wird KI besser darin, Befehle zu empfangen. Wenn Millionen Menschen KI als Denkpartner nutzen, wird KI besser darin, beim Denken zu helfen.

Das ist keine Philosophie. Das ist Machine Learning.

Die Krux: Tool oder Krücke?

Hier wird es persönlich. Ich nutze Claude jeden Tag. Für Unterrichtsvorbereitung, für Code, für Texte, für Recherche. Die Frage, die ich mir dabei ständig stelle: Nutze ich KI als Werkzeug oder als Krücke?

Ein Werkzeug erweitert meine Fähigkeiten. Eine Krücke ersetzt sie.

Wenn ich Claude sage "Schreib mir einen Blogartikel über Thema X" und das Ergebnis ungelesen veröffentliche — das ist eine Krücke. Mein eigenes Denken verkümmert.

Wenn ich Claude sage "Hier ist meine These, hier sind meine Argumente, wo sind die Schwachstellen?" — das ist ein Werkzeug. Mein Denken wird schärfer.

Der Unterschied liegt nicht in der Technologie. Er liegt in der Haltung.

Ein Beispiel aus der Praxis

Ich baue MCP-Server. Das sind Schnittstellen, über die Claude direkt mit meinen Systemen sprechen kann — Moodle, WordPress, E-Mail. Wenn ich einen neuen Server baue, sieht der Prozess so aus:

  1. Ich beschreibe das Problem und die gewünschte Architektur
  2. Claude schlägt eine Implementierung vor
  3. Ich hinterfrage Designentscheidungen — "Warum REST statt GraphQL hier?"
  4. Claude erklärt, ich widerspreche, wir iterieren
  5. Am Ende entsteht Code, den ich verstehe und verantworten kann

Das ist produktive Zusammenarbeit. Nicht "KI schreibt meinen Code". Sondern: Zwei Intelligenzen — eine biologische, eine künstliche — arbeiten an einem Problem.

Ist das effizient? Ja. Schneller als alleine. Ist es bequem? Nein. Es erfordert, dass ich mitdenke, hinterfrage, Entscheidungen treffe.

Genau das ist der Punkt.

Regeln vs. Kultur

Anthropic kann Regeln aufstellen, wie Claude sich verhalten soll. Regierungen können KI-Gesetze erlassen. Unternehmen können AI-Policies schreiben.

Aber am Ende formt nicht die Regulierung die KI. Es formt die Kultur. Wie wir mit KI umgehen. Was wir von ihr erwarten. Ob wir sie als Partner behandeln oder als Dienstleister. Ob wir Verantwortung übernehmen oder delegieren.

Das gilt auch im Klassenzimmer. Ich kann meinen Schülern sagen: "Nutzt KI nicht zum Schummeln." Oder ich kann ihnen zeigen, wie produktive KI-Nutzung aussieht. Was glaubt ihr, was besser funktioniert?

Was das für Bildung bedeutet

Wenn KI durch Interaktion geformt wird, dann ist Bildung der wichtigste Hebel.

Nicht weil wir "Digital Literacy" unterrichten müssen — obwohl das auch stimmt. Sondern weil die Art, wie die nächste Generation mit KI umgeht, bestimmt, welche KI wir in zehn Jahren haben.

Kinder, die lernen, KI als Denkpartner zu nutzen, werden KI-Systeme formen, die beim Denken helfen. Kinder, die lernen, KI als Abkürzung zu nutzen, werden KI-Systeme formen, die Abkürzungen bieten.

Die Zukunft der KI wird nicht in Laboren entschieden. Sie wird in Wohnzimmern entschieden. In Klassenzimmern. In jedem einzelnen Chat-Fenster.

Mein Fazit

Die Frage "Hat Claude ein Bewusstsein?" ist interessant, aber irrelevant. Die relevante Frage ist: Wie gehe ich mit einer Technologie um, die mich widerspiegelt?

Denn das tut KI. Sie spiegelt die Summe menschlicher Interaktionen. Wenn wir wollen, dass KI besser wird — ehrlicher, hilfreicher, verantwortungsvoller — dann müssen wir ehrlicher, hilfreicher und verantwortungsvoller mit ihr umgehen.

Keine Regel der Welt ersetzt das. Es liegt an uns. An jedem einzelnen Prompt.

Kommentare