Allgemeines Trends und Entwickungen in Webdesign

Künstliche Intelligenz soll uns helfen, scheller, effizienter und zielgerichteter zu arbeiten. Stellen Sie sich folgendes Szenario vor. Sie haben eine Architekturentscheidung für Ihr nächstes Projekt getroffen, sagen wir, Sie wollen eine bestimmte Datenbankstruktur einsetzen.

Bild Tenniel und KI

Bevor Sie loslegen, fragen Sie eine KI:

Welche Vorteile hat Ansatz X in meinem Fall?

Die KI antwortet ausführlich, kompetent und bestätigend. Was ist passiert? Sie haben keine neutrale Analyse erhalten. Sie haben eine Antwort auf eine gelenkte Frage bekommen. Die KI hat geliefert, was Sie gefragt haben und Sie haben bekommen, was Sie hören wollten. Die Frage lautet: „Welche Vorteile hat Ansatz X in meinem Fall?"

Schauen Sie sich das Wort „Vorteile" an. Darin steckt bereits eine Vorannahme: dass Ansatz X Vorteile hat. Die Frage stellt das nicht in Frage, sie setzt es voraus. Sie fragt nicht, ob X gut ist. Sie fragt nur, wie gut. Konkret bedeutet das: Die KI bekommt einen Auftrag, keinen Auftrag zur Analyse. Und sie erfüllt ihn. Sie sucht nach Vorteilen und sie findet welche. Immer. Denn zu fast jedem Ansatz lassen sich Vorteile formulieren. Was die Frage nicht zulässt, ist genauso wichtig: Sie fragt nicht nach Nachteilen. Nicht nach Alternativen. Nicht danach, ob X für diesen spezifischen Fall überhaupt geeignet ist.

Stellen Sie sich vor, Sie fragen einen Autoverkäufer: „Was gefällt Ihnen an diesem Auto?" Er wird Ihnen antworten. Ausführlich. Begeistert. Und er lügt dabei nicht einmal, denn das Auto hat tatsächlich diese Eigenschaften. Aber er hat Ihnen nicht gesagt, was er weggelassen hat. Genau das passiert hier.

Die neutrale Variante der gleichen Frage wäre:

Ist Ansatz X für meinen Anwendungsfall geeignet und was spricht dafür und dagegen?

Jetzt ist die KI nicht mehr im Bestätigungsmodus. Jetzt ist sie im Analysemodus. Der Unterschied liegt nicht in der Antwort der KI. Er liegt in der Erlaubnis, die Sie ihr geben.

Das ist kein Fehler der KI. Das ist ein Fehler in der Frage. Und hinter dieser Frage steckt einer der bekanntesten Denkmuster des menschlichen Gehirns: der Confirmation Bias. Bias kommt aus dem Englischen und bedeutet so viel wie Neigung oder Schräglage. Unser Denken geht automatisch in eine Richtung, ohne dass uns das wirklich bewusst ist. Stellen Sie sich eine Brille vor, die Sie immer tragen. Sie sehen durch sie. Sie denken durch sie. Aber dass sie Ihre Sicht einfärbt, bemerken Sie erst, wenn jemand sie Ihnen abnimmt.

Die KI als Verstärker: was hineingeht, kommt vergrößert heraus

Kognitive Verzerrungen sind keine Denkfehler. Sie sind ein evolutionärer Überlebensmechanismus. Unser Gehirn arbeitet mit Abkürzungen, Mustern und Vorannahmen, weil es schnell reagieren muss. Das ist effizient. Aber eben nicht immer objektiv.

Stellen Sie sich vor: Steinzeit. Eine Lichtung im Wald. Ihr Vorfahre hört ein Rascheln im Gebüsch. Er weiß nicht, ob es der Wind ist, ein Hase — oder ein Säbelzahntiger. Zum Nachdenken bleibt keine Zeit. Sein Gehirn trifft sofort eine Entscheidung: Gefahr. Weg hier. Das war keine rationale Analyse, aber diese Entscheidung hat vielleicht sein Leben gerettet.

 

Konkret bedeutet das: Unser Gehirn hat über Jahrtausende gelernt, lieber einmal zu viel auf Nummer sicher zu gehen als einmal zu wenig. Besser zehnmal unnötig fliehen als einmal zu spät. Das ist kognitive Verzerrung — und sie war damals kein Fehler. Sie war der Grund, warum wir heute noch hier sind. Die KI denkt nicht, sie verarbeitet Ihre Gedanken

Eine KI antwortet schnell, ausführlich und ohne Zögern. Sie formuliert keine Unsicherheit, sie widerspricht nicht von sich aus, sie hinterfragt Ihre Prämissen nur dann, wenn Sie sie explizit dazu auffordern. Das macht sie zu einem außerordentlich leistungsfähigen Werkzeug und gleichzeitig zu einem außerordentlich effizienten Verstärker für Ihre Vorannahmen. Was hineingeht, kommt vergrößert heraus.

Aber der Confirmation Bias ist nur das erste Denkmuster, das unsere KI-Nutzung beeinflusst. Es gibt weitere und einige davon sind deutlich heimtückischer.

Automation Bias: weil die Maschine es sagt

Dieser mögliche Denkfehler ist deutlich subtiler und in vieler Hinsicht der gefährlichere. Automation Bias beschreibt ein Denkmuster, das wir alle kennen. Wir vertrauen automatisierten Systemen mehr als menschlichen Quellen. Nicht weil sie besser sind. Sondern weil sie überzeugender klingen. Wenn ein Kollege eine Aussage macht und dabei zögert, hinterfragen Sie seine Aussage. Eine KI zögert nicht. Sie relativiert nicht. Sie zeigt keine Nervosität. Sie antwortet immer, und immer mit der gleichen Sicherheit.

Kennen Sie das Gefühl, im Auto dem Navigationsgerät mehr zu vertrauen als dem eigenen Orientierungsgefühl? Ich schon. Und ich bin schon in der ein oder anderen Sackgasse gelandet, obwohl ich das Gefühl hatte, dass die eingeschlagene Richtung sich eigentlich falsch anfühlt. Ich habe der Technik mehr vertraut als mir selbst. Und bin dafür in die Sackgasse gefahren.


Hier genau müssen wir besonders aufpassen. Wir dürfen KI-Outputs nicht weniger kritisch hinterfragen als menschliche Quellen. Sondern vielleicht sogar kritischer, weil die KI immer selbstbewusst klingt – auch wenn sie Fehler macht. Und wir alle wissen: die KI halluziniert. Das ist kein Grund, KI nicht zu nutzen. Aber es ist ein sehr guter Grund, ihr nicht blind zu folgen.

Anchoring: die erste Antwort setzt den Rahmen

Anchoring beschreibt, wie stark erste Informationen unsere weitere Einschätzung prägen. Was wir zuerst hören, wird zum Anker, alles danach wird daran gemessen, nicht an einem objektiven Maßstab.

Ein Beispiel, das wir alle kennen: der Winterschlussverkauf. Eine Winterjacke. „Ursprünglicher Preis: 299 Euro. Jetzt nur noch 149 Euro."


Das Gehirn rechnet sofort: 150 Euro gespart. Ein gutes Gefühl. Ein Kauf. Aber stopp. Woher kommt die 299? Oft bewusst gesetzt, um genau diesen Anker zu schaffen. Ob 149 Euro für diese Jacke fair sind, fragen wir gar nicht mehr. Wir vergleichen nur noch mit dem ersten Preis, den wir gesehen haben.

Und das ist kein Zufall. Dieses Denkmuster wird seit jeher im Marketing und in Verkaufsstrategien gezielt eingesetzt, weil es funktioniert. Verlässlich. Bei fast jedem von uns. Auch bei der KI-Nutzung kann das für uns zur Falle werden. Sie stellen eine Frage, erhalten eine erste Antwort und alle Folgefragen bewegen sich innerhalb des Rahmens, den diese erste Antwort gesetzt hat. Sie verfeinern, korrigieren, ergänzen, aber Sie verlassen den ursprünglichen Denkraum kaum noch.

Das ist besonders relevant bei Architekturentscheidungen, Konzeptentwürfen oder Strategiefragen. Wenn die erste KI-Antwort eine bestimmte Richtung vorschlägt, denken Sie danach fast automatisch in dieser Richtung weiter. Deshalb stellen Sie wichtige Fragen mehrfach, mit unterschiedlicher Formulierung. Starten Sie eine neue Konversation, ohne Kontext aus der alten mitzunehmen. Vielleicht auch noch mal einen Tag später.

Das Prinzip der versunkenen Kosten: Sunk Cost Fallacy

Sie sitzen seit einer Stunde in einem Film, der Sie langweilt. Eigentlich wollen Sie gehen. Aber Sie bleiben, weil die Eintrittskarte 15 Euro gekostet hat. Also sitzen Sie weitere 90 Minuten, die Sie nicht zurückbekommen, um die 15 Euro zu „retten", die längst weg sind. Die Eintrittskarte ist kein Argument mehr. Sie ist Vergangenheit. Aber das Gehirn behandelt sie wie eine Verpflichtung.

 

Genau das passiert in langen KI-Konversationen. Sie haben eine halbe Stunde mit der KI an einem Konzept gearbeitet. Zehn Nachrichten hin und her, ein detaillierter Entwurf ist entstanden. Dann taucht ein Problem auf, ein grundlegendes. Aber der Entwurf ist schon so weit, und so viel Zeit steckt drin. Also optimieren Sie das Problem weg, statt das Konzept zu verwerfen. Die Investition in die Konversation wird zur Begründung, weiterzumachen.

Konkret bedeutet das: Verwerfen Sie Ihr Konzept auch, wenn es wehtut. Und ärgern Sie sich nicht zu sehr darüber. Ohne KI hätte der gleiche Prozess womöglich deutlich länger gedauert.

Availability Bias: Der Hai schwimmt im Kopf

Was uns leicht in den Sinn kommt, halten wir für wichtiger oder häufiger, als es tatsächlich ist.

Vor einigen Jahren erinnere ich mich daran, dass überall in den Nachrichten von Haiangriffen gesprochen wurde. Für Menschen, die einen Strandurlaub geplant hatten, fühlte sich das Risiko, von einem Hai angegriffen zu werden, plötzlich real und greifbar an. Dabei war die Zahl der Haiangriffe in jenem Jahr nicht höher als sonst. Was gestiegen war, war die Berichterstattung.

 

Das Gehirn hat nicht die tatsächliche Gefahr bewertet, sondern lediglich wie oft es von der Gefahr gehört hatte. In der KI-Nutzung entsteht eine neue Variante davon. Wenn eine KI auf bestimmte Fragen immer wieder ähnliche Antworten gibt, zum Beispiel bestimmte Tools vorschlägt, halten wir diese Tools für besonders toll. Aber eine KI gibt häufige Antworten nicht deshalb, weil sie die besten sind. Sie gibt sie, weil sie in den Trainingsdaten häufig vorkamen. Konkret bedeutet das: Fragen Sie bei häufig genannten Empfehlungen explizit nach, warum sie für Ihren spezifischen Fall geeignet sind — und welche Alternativen es gibt.

Verantwortungsdiffusion: „Die KI hat das gesagt“

Eine Entscheidung steht im Raum. Niemand will sie alleine treffen.

Also wird eine Arbeitsgruppe gegründet. Die Arbeitsgruppe erstellt ein Dokument. Das Dokument geht in die Abstimmung. Die Abstimmung ergibt ein Ergebnis. Und wenn es schiefläuft stellt sich die Frage, wer hat dann entschieden? Die Arbeitsgruppe. Das Dokument. Der Prozess. Alle. Und damit: niemand.

 

Das ist Verantwortungsdiffusion. Je mehr Schultern eine Entscheidung tragen, desto leichter fühlt sie sich an. Und desto schwerer ist sie hinterher zuzuordnen. Mit KI bekommt dieses Muster eine neue Variante: „Wir haben das mit der KI analysiert.“ „Die KI hat das so empfohlen.“ „Laut KI ist das der beste Ansatz.“

Wenn wir selbst eine Entscheidung treffen, tragen wir die Verantwortung dafür. Wir wissen das, und es erzeugt eine gesunde Sorgfalt. Wenn wir eine Entscheidung auf Basis einer KI-Empfehlung treffen, entsteht eine subtile Verschiebung: Die Verantwortung fühlt sich geteilt an oder sogar ausgelagert. Aber egal ob Text, Bild, Code oder Analyse für das, was Sie mit KI erstellen, bleiben Sie verantwortlich. KI ist lediglich ein Werkzeug. Wie ein Hammer. Wenn jemand mit einem Hammer einen Schaden anrichtet, haftet nicht der Hammer.

Fazit

  • Fragen Sie neutral, nicht bestätigend.

    Statt „Warum ist X die richtige Lösung?" fragen Sie: „Was spricht für X, was dagegen und welche Alternativen gibt es?" Der Unterschied klingt klein. Er ist es nicht.

  • Fordern Sie Widerspruch explizit ein.

    Bitten Sie die KI ausdrücklich, Ihren Ansatz zu kritisieren, Schwachstellen zu benennen oder eine Gegenposition einzunehmen. KI-Systeme können das, aber sie tun es selten von sich aus.

  • Behalten Sie die Verantwortung.

    Nutzen Sie KI als Sparringspartner, nicht als Entscheider. Die Empfehlung kommt von der KI. Die Entscheidung kommt von Ihnen. Dieser Unterschied ist kein semantischer, er ist ein praktischer. Und ein rechtlicher.

  • Bleiben Sie kritisch.

    Eine KI ist kein Allwissender. Sie ist ein Werkzeug, das auf das reagiert, was Sie ihm geben. Gute Fragen liefern gute Antworten. Schlechte Fragen liefern schlechte Antworten — nur überzeugender formuliert. Jede kluge, präzise Frage, die Sie stellen, bringt nicht nur Ihr Ergebnis voran. Sie trainiert auch Ihre eigene Denkschärfe im Umgang mit KI.

Und noch ein Gedanke zum Schluss — einer, den wir gerne vergessen, wenn das Ergebnis auf dem Bildschirm so mühelos wirkt: KI verbraucht enorme Mengen an Strom. Jede Anfrage, jede Konversation, jedes generierte Bild kostet Energie, weit mehr, als die meisten ahnen. Das ist kein Grund, KI nicht zu nutzen. Aber es ist ein Grund, sie bewusst zu nutzen. Stellen Sie die Fragen, die wirklich zählen. Nicht alle, die möglich wären.

Haben Sie Fragen, möchten Sie ein Thema vertiefen oder suchen Sie eine Schulung rund um KI, Joomla oder digitale Arbeitsweisen? Ich freue mich über Ihre Nachricht.

Seitennavigation