1. warum diese richtlinie
wir bauen ai für europäische unternehmen, die souveränität und nachvollziehbarkeit brauchen. daraus entstehen verpflichtungen, die wir ernst nehmen — diese richtlinie beschreibt, wie wir sie im produkt und im betrieb umsetzen.
2. unsere zusagen
- souveränität — ihre gedächtnisschicht bleibt dort, wo sie sie ablegen. schweiz by default, eu auf anfrage, on-premise für regulierte branchen.
- menschliche aufsicht — agenten schlagen vor, menschen entscheiden. schreibende operationen in drittsystemen benötigen explizite freigabe.
- transparenz — jede antwort enthält quellenzitate. runs sind protokolliert und auditierbar.
- modell-wahl — sie wählen, an welche modelle geroutet wird. kein single-provider-lock-in.
- datensparsamkeit — der agent liest nur, was er braucht.
3. was wir nicht bauen
keine waffen- oder militär-zielsysteme, keine massenüberwachung, keine prädiktive polizeiarbeit, keine biometrische kategorisierung von individuen, kein social scoring, keine skalierte desinformation, keine zwangsinhalte mit echten personen ohne deren einwilligung.
4. training
wir trainieren keine eigenen modelle auf ihren inhalten. wo wir an drittanbieter routen, nutzen wir deren no-training-kontrollen.
5. bias und fairness
antworten spiegeln die zugrundeliegenden quellen wider. wir fügen keinen künstlichen bias hinzu. quellen sind auditierbar und können eingeschränkt werden.
6. eu-ai-act
das produkt ist als modell-unabhängiges business-tool konzipiert, nicht als hochrisiko-ai im sinn des eu-ai-acts. deployments in höheren risikokategorien erfordern eine gemeinsame risikobewertung vor go-live.
7. missstände melden
wenn sie der meinung sind, das produkt wird missbraucht, schreiben sie an hey@theblankcollar.com mit dem betreff "responsible ai report". wir antworten innerhalb von 7 tagen.