KI be­schleu­nigt. Aber Kun­den­ver­trau­en ist end­lich.

ProduktdenkenRisiko & EntscheidungInnovation

Figma Make. Lo­va­ble. Clau­de De­sign. Cur­sor.

Mit einem Prompt ent­steht ein in­ter­ak­ti­ver Pro­to­typ in Stun­den. Per­so­nas wer­den syn­the­ti­siert, Mo­ckups ge­ne­riert, Code ge­schrie­ben. Wer im De­sign ar­bei­tet, er­le­digt gleich die Ar­beit der Ent­wick­lung – und um­ge­kehrt. Es ist be­ein­dru­ckend wie schnell die Ar­beit der an­de­ren plötz­lich mach­bar er­scheint. Die Pro­duk­ti­vi­tät steigt. Der Flow setzt ein. Die Be­geis­te­rung auch.

Das ist real. Und es ist ein Ge­winn – so­lan­ge klar ist, was dabei auf dem Spiel steht.
Das Ri­si­ko liegt nicht in der KI. Es liegt im un­re­flek­tier­ten Ein­satz.

Das Ge­hirn schal­tet um

Kah­ne­mans Mo­dell des schnel­len und lang­sa­men Den­kens hilft zu er­klä­ren, was dabei pas­siert: Hohe Ge­schwin­dig­keit, un­mit­tel­ba­re Re­sul­ta­te und ko­gni­ti­ve Leich­tig­keit för­dern in­tu­i­ti­ves Den­ken – und er­hö­hen damit das Ri­si­ko ober­fläch­li­cher Be­wer­tung.

KI-Out­puts wer­den an­ders be­trach­tet als Out­puts die müh­sam von Hand oder im Team er­a­r­bei­tet wur­den. Zu viel De­tail­ver­liebt­heit kos­tet die Ge­schwin­dig­keit – dann wird es müh­sam mit der KI. Also lässt man es. Man scrollt durch das Er­geb­nis, nickt, und geht wei­ter.

Und hier liegt der ei­gent­li­che Kern: Wir sind be­reit, be­wusst Ab­kür­zun­gen zu neh­men – im Wis­sen um mehr Un­schär­fe. Das ist keine Nach­läs­sig­keit. Es ist eine Ent­schei­dung. Aber es ist eine Ent­schei­dung die di­rek­te Kon­se­quen­zen für die Qua­li­tät hat – und die sel­ten ex­pli­zit aus­ge­spro­chen wird.

Die Rol­len­fal­le

KI macht es mög­lich, dass De­si­g­nen­de gleich den Code schrei­ben und Ent­wi­ckeln­de gleich das De­sign ma­chen. Das klingt nach Ef­fi­zi­enz.

Es ist eine Falle – aber nicht weil die Fä­hig­kei­ten feh­len. Son­dern weil die Qua­li­täts­mass­stä­be feh­len.

KI setzt Kom­po­nen­ten ein die sie kennt. Wer nicht in einer Dis­zi­plin aus­ge­bil­det ist, hat nicht die Fä­hig­keit zu er­ken­nen, dass etwas an­de­res bes­ser wäre – oder was «bes­ser» in die­sem Kon­text über­haupt be­deu­tet. Feh­len­des Tes­ting, feh­len­de Sys­tem­do­ku­men­ta­ti­on, feh­len­de Ar­chi­tek­tur­kennt­nis­se: das wird nicht sicht­bar weil es klickt. Wenn es klickt, funk­tio­niert es – das ist der Mass­stab.

KI senkt die Ein­stiegs­hür­de in frem­de Dis­zi­pli­nen. Sie senkt nicht den Qua­li­täts­an­spruch der nötig wäre um gute Ar­beit ab­zu­lie­fern. Die­ser Un­ter­schied ver­schwin­det im Flow – und zeigt sich erst spä­ter, im Be­trieb.

Re­sea­rch lässt sich nicht weg­promp­tie­ren

Syn­the­ti­sier­te Per­so­nas sind nett. Für einen Check­out-Pro­zess einer Web­si­te kön­nen sie aus­rei­chend sein. Für spe­zi­fi­sche B2B-Cases – In­dus­trie­pro­zes­se, kom­ple­xe Work­flows, stark re­gu­lier­te Um­fel­der – hat die KI keine ei­ge­ne Er­fah­rung. Sie weiss was in Tex­ten steht. Sie weiss nicht was ein Schicht­lei­ter in einer Pro­duk­ti­ons­hal­le wirk­lich meint wenn er sagt «das ist zu kom­pli­ziert». Sie weiss nicht wel­che Wor­k­a­rounds seit Jah­ren im Ein­satz sind – und nie je­man­dem ge­zeigt wur­den.

Ech­ter Re­sea­rch lie­fert Über­ra­schun­gen. Syn­the­ti­sier­ter Re­sea­rch lie­fert Be­stä­ti­gung.

Und Über­ra­schun­gen sind oft das Wert­volls­te was Re­sea­rch lie­fern kann.

Wie gehen wir damit um?

Die Frage ist nicht ob KI ge­nutzt wer­den soll. Die Frage ist: Haben wir die Ma­tu­ri­tät dafür – als in­ter­dis­zi­pli­näres Team, nicht als Ein­zel­per­son?

KI-ge­stütz­te Pro­dukt­ent­wick­lung braucht Teams die Ab­kür­zun­gen nicht ein­fach neh­men, son­dern sie be­wusst und ex­pli­zit ma­chen. Das be­deu­tet: aus­spre­chen was weg­ge­las­sen wird, ent­schei­den ob das Ri­si­ko ver­tret­bar ist – und wenn nicht, de­fi­nie­ren wie und wann es spä­ter auf­ge­fan­gen wird. Eine be­wuss­te Ab­kür­zung ist keine Nach­läs­sig­keit. Eine un­aus­ge­spro­che­ne ist eine Zeit­bom­be.

Das setzt vor­aus, dass die Qua­li­täts­mass­stä­be der ei­ge­nen Dis­zi­plin be­kannt sind – und re­spek­tiert wer­den. Kein Tool er­setzt die­ses Wis­sen. Kein Prompt er­setzt die Er­fah­rung die nötig ist um zu er­ken­nen, dass etwas nicht stimmt.

Der Kunde als Cras­h­test-Dummy

Was frü­her als Witz galt – «der Kunde ist kein Beta-Tes­ter» – wird zur Re­a­li­tät, wenn KI-Ge­schwin­dig­keit ohne aus­rei­chen­de Va­li­die­rung in Pro­duk­te fliesst.

Im Con­su­mer-Be­reich gibt es eine ge­wis­se To­le­ranz dafür. Im B2B- und En­ter­pri­se-Um­feld ist das an­ders. Sys­te­me sind ein­ge­bet­tet in Pro­zes­se, Ver­trä­ge, Or­ga­ni­sa­ti­onss­truk­tu­ren. Ein Pro­dukt das nicht hält was es ver­spricht, ver­ur­sacht nicht nur Frus­tra­ti­on – es ver­ur­sacht Auf­wand, Kos­ten, Ver­trau­ens­ver­lust.

Kun­den­ver­trau­en ist eine end­li­che Res­sour­ce. Es wird über Jahre auf­ge­baut. Ich bin nicht si­cher wie lange Kun­den mit­ma­chen, wenn sie zum Cras­h­test-Dummy wer­den.

KI be­schleu­nigt. Die Frage bleibt: Was genau be­schleu­ni­gen wir – und mit wel­chem Be­wusst­sein für die Ab­kür­zun­gen die dabei ge­nom­men wer­den?