Beim Durchqueren des Görlitzer Parks sprechen die Grüppchen von Verkäufern (politisch korrekt-Sprech: “Personen, die ich als “männlich” und “schwarz” identifizieren würde. Im Duktus der Redaktion Bahamas: Neger) nicht die Mutti mit Kinderwagen vor mir an, sondern ich bekomme das “Hello my friend, how are you? Alles gut?” ab. Nichts gegen Kaltakquise potentieller Kundinnen und Kunden, aber wenn in Zeitungen über Diskriminierung geschrieben wird – hier passiert derselbe Mechanismus. Es werden bestimmte soziodemographische Merkmale erfasst und daraus Hypothesen gebildet. Blitzschnell ist der Rückschluß für die eigene Handlung gezogen: potentieller Käufer, ansprechen. Nur bedeutet das ebenso: Vorurteil. Man weiß ja nichts über mich, evtl. bin ich abstinent o.ä. Im Unterschied zu einer Personenkontrolle entstehen mir hier keine Nachteile und in das Lied der weißen Minderheit, die nun angeblich bedroht ist und ja genau so leidet, werde ich sicher nicht einstimmen weil es schlicht und ergreifend falsch ist. Eine Person handelt nach ihren Vorurteilen, das ist schon schlimm genug.
Kurzschluß mit einem anderen Gedanken: Menschen diskriminieren, Algorithmen nicht. Gegen die Aufzeichnung von Daten wird immer viel eingewandt, nur wird völlig vergessen: es sind Menschen, die z.B. das Amt eines Polizisten bekleiden, die falsche und diskriminierende Rückschlüsse ziehen. Und es ist schwer, hier eine Systematik zu erkennen. Vielleicht ist es ja nur ein Polizist unter vielen, der diskriminiert. Vielleicht ist die eine Kontrolle nur eine Ausnahme. Oder es gab andere Anhaltspunkte für eine Personenkontrolle, die nicht in der Hautfarbe des Beschuldigten lagen. Ein Algorithmus dagegen diskriminiert nicht. Weil es politisch nicht durchsetzbar wäre und der Protest dagegen immens wäre.