„Race After Technology:
Abolitionistische Werkzeuge für den New Jim Code“ von Ruha Benjamin Automatische übersetzen
„Race After Technology: Abolitionist Tools for the New Jim Code“ ist ein Sachbuch aus dem Jahr 2019 von Dr. Ruha Benjamin. Benjamin ist ausgebildeter Soziologe und Anthropologe sowie Professor für Afroamerikanistik an der Princeton University. „Race After Technology“ erhielt mehrere Auszeichnungen, darunter den Oliver Cromwell Cox Book Award (2020) der American Sociological Association Section on Race & Ethnic Minorities; Lobende Erwähnung für den Communications, Information, Technologies, and Media Sociology (CITAMS) Book Award (2020); und der Brooklyn Public Library Literary Prize for Nonfiction (2020). In „Race After Technology“ geht es um das, was Benjamin den „New Jim Code“ nennt. Hierbei handelt es sich um neue Technologien, die als harmlos und rein gelten, aber soziale Ungleichheiten verstärken, aufrechterhalten und beschleunigen. Das Buch untersucht die Formen, die diese kodierte Ungleichheit annimmt, und bietet praktische Vorschläge zu ihrer Bekämpfung. Dieser Studienführer bezieht sich auf die Polity Press-Ausgabe 2019. Bitte beachten Sie, dass sich dieser Leitfaden auf Polizeigewalt bezieht.
In der Einleitung untersucht Benjamin die sozialen und politischen Implikationen von Namen. Filtertechnologien für Stellenbewerber lehnen Bewerber mit schwarzen Namen häufig ab, ein Beispiel für den „New Jim Code“, bei dem Technologien, die objektiv erscheinen, soziale Ungleichheiten reproduzieren, verstärken und beschleunigen. Im Namen der Vielfalt und des Multikulturalismus passen einige Algorithmen Inhalte an die Zuschauer an. Dies kann jedoch auch dazu führen, dass sie einer übermäßigen Überwachung durch die Strafverfolgungsbehörden unterliegen. Benjamin besteht darauf, dass Rasse selbst eine Technologie für Ungerechtigkeit ist, und fordert uns auf, die menschlichen Folgen eines unkontrollierten technologischen Fortschritts zu berücksichtigen. Kapitel 1: „Instruierte Ungleichheit: Sind Roboter rassistisch?“ beschreibt die überwiegend weißen Ergebnisse eines internationalen Schönheitswettbewerbs 2016, bei dem ausschließlich künstliche Intelligenz zum Einsatz kam. Wenn die Voreingenommenheit von Designern sich auf die Technologie auswirkt, Dies kann weitreichendere Folgen in Bereichen wie dem Gesundheitswesen oder dem Gefängnis haben. Kapitel 2 beschreibt auch, wie Roboter menschliche Vorurteile reproduzieren können, je mehr wir sie so programmieren, dass sie uns ähneln. Benjamin schlägt vor, dass wir uns beim Entwerfen von KI der Rasse bewusst sein und darüber nachdenken, wie die Optimierung von Technologien für einige zu schlechteren Erfahrungen für andere führen kann. Da das Leben der Menschen stark von technologischen Innovationen beeinflusst wird, müssen wir bei der Entwicklung der von uns entwickelten Technologie aufmerksamer sein. Kapitel 2: „Standarddiskriminierung: Ist der Glitch systemisch?“ untersucht, wie Pannen, obwohl sie als kleine Fehler wahrgenommen werden, weit verbreitete gesellschaftliche Vorurteile widerspiegeln. Beispielsweise haben Störungen in der prädiktiven Polizeisoftware zu falschen Vorhersagen geführt, die die Kriminalität in schwarzen und lateinamerikanischen Gemeinschaften überschätzen. Architektonisches Design hat in der Vergangenheit auch soziale Hierarchien gestärkt. Während Design absichtlich oder unabsichtlich auf bestimmte Bevölkerungsgruppen abzielen kann, betreffen diese Ungleichheiten jeden. Störungen in Algorithmen sind alles andere als rein, sie weisen vielmehr auf größere systemische Probleme hin. Kapitel 3: „Kodierte Belichtung: Ist Sichtbarkeit eine Falle?“ beschreibt die diskriminierende Art und Weise, wie die Technologie schwarze Menschen sowohl unsichtbar als auch hypersichtbar gemacht hat. Einige Technologien wurden ohne Rücksicht auf Schwarze entwickelt, was zu ungleichem Zugang führt. Auf der anderen Seite zielen einige übermäßig auf Schwarze ab, wie etwa die verbesserte Blitzfunktion der Polaroid ID2, mit der schwarze Südafrikaner besser für Sparbücher fotografiert werden sollen, die ihre Bewegungsfreiheit während der Apartheid einschränkten. Hypersichtbar zu sein bedeutet, stereotyp zu sein. Zwischen Eugenik, forensischer DNA und Gesichtserkennung hat die Regierung neue Technologien zur Überwachung und Kontrolle als Waffe eingesetzt. Kapitel 4: „Technologische Wohltätigkeit: Reparieren uns Fixes?“ untersucht, wie technische Lösungen für soziale Probleme häufig andere Ungleichheiten reproduzieren. Beispielsweise „lösen“ Fußfesseln die Überbelegung von Gefängnissen, indem sie die Reichweite des Überwachungsstaats erweitern. Ebenso können Technologien, die darauf ausgelegt sind, vorherzusagen, welche Gemeinden einen größeren medizinischen Bedarf haben, diese Gemeinden negativ als kostspielig und bedürftig einstufen. Benjamin besteht darauf, dass wir wachsam gegenüber technologischen Lösungen sein müssen, die angeblich ein soziales Problem lösen, aber ein weiteres Dilemma darstellen. In Kapitel 5: „Retooling Solidarity, Reimagining Justice“ ermutigt Benjamin zum Widerstand gegen kodierte Ungleichheit. Beispielsweise wurde die Virtual-Reality-Technologie als Werkzeug für Empathie durch die Wahrnehmung der Realität einer anderen Person dargestellt, ist jedoch unzureichend, da Wahrnehmung mehr ist als Sehen. Benjamin weist darauf hin, dass unsere Lösungen nicht immer in Form eines neuen, trendigen Designs vorliegen müssen. Sie plädiert für eine integrativere Gesellschaft und eine Verlangsamung des technologischen Fortschritts, um Raum für rassenbewusstes Design zu schaffen. Aktivistengruppen wie Data for Black Lives kämpfen für Datengerechtigkeit und fördern eine Demokratisierung von Daten. Benjamin besteht darauf, dass wir uns nicht von neuen Technologien ablenken lassen. Stattdessen sollten wir alternative kreative Methoden zur Abschaffung des New Jim Code und zum Aufbau gerechter Systeme erkunden.
Adblock bitte ausschalten!
Sie können nicht kommentieren Warum?