1 min read

Im Rahmen der Digitalisierung und der Ausbreitung von Technologien wie Künstliche Intelligenz (KI) oder automatisierte Entscheidungssysteme ist immer wieder von der vermeintlichen Objektivität solcher Systeme die Rede. Am Ende erweisen sich diese aber oft keineswegs als so neutral, wie sie erscheinen oder wie von ihnen behauptet wird. Wer wird nach welchen Kriterien beurteilt? Wer wird ein, wer ausgeschlossen? Wer ist dafür verantwortlich? Aus diskriminierenden Erfahrungen, die Menschen wegen ihrer Hautfarbe, ihres Geschlechts, einer Behinderung oder wegen ihres Einkommens erfahren, ist die Forderung erwachsen, schon im Designprozess müsse Diskriminierungsfreiheit mitgedacht werden. Anfang Juni wurde auf der RightsCon, einer internationalen Konferenz, bei der es um Menschenrechte und das digitale Zeitalter geht, darüber diskutiert, weshalb auch Design wichtig für Menschenrechte ist. Der Zusammenschluss Design Justice Network setzt sich dafür ein, ein größeres Bewusstsein für die Relevanz des Themas zu schaffen.

Unter dem Stichwort „Design Justice“ informieren auch zwei von Jenny Genzmer und Dennis Kogel moderierte und als Podcast abrufbare Sendungen von Deutschlandfunk Kultur – „Der Kampf für diskriminierungsfreie Technologien“ und „Visionen für das Internet der Zukunft“ – über Cookie-Banner, Dark Patterns und diverse, meist unbemerkte Formen digitaler Diskriminierung. Dabei wird unter anderem deutlich, dass kein Algorithmus an sich diskriminierend vorgeht, sondern diejenigen, die ihn designen. Aktivist/innen fordern deshalb weitere Regulierungen und international verbindliche Abkommen, die den Schutz der Menschenrechte bei der Technologieentwicklung sicherstellen sollen – vor allem mit Blick auf automatisierte Entscheidungssysteme.

Diese Seite auf Social Media teilen:

Print Friendly, PDF & Email