Algorithmen sind objektiv, neutral und frei von menschlicher Beeinflussung – so zumindest scheint der Konsens zu sein, was Big Data und Daten verarbeitende Software angeht. Es besteht auf jeden Fall kein Zweifel daran, dass diese einen großen Einfluss auf unser tägliches Leben haben, sei es im Bereich Finanzen, Arbeitsleben, Social Media, Versicherungen, Politik und mehr.
Sind Algorithmen wirklich unvoreingenommen?
Gibt es wirklich keine verfälschten Ergebnisse, die für das Individuum Nachteile mit sich ziehen, bezogen auf Geschlecht, Herkunft, sozioökonomischem Hintergrund oder Gesundheitsstatus? Was mich erstmals zu dieser Fragestellung und diesem Thema brachte, war eine Diskussion auf YouTube:
YouTube ist eine Plattform voller verschiedener Themen, voller Diversität, von einfachen Entertainment-Videos, Mode-Clips, Beauty-Tutorials, bis hin zu wissenschaftlichen Themen und Sprachkursen. Ich bin selbst YouTuberin und fast täglich auf dieser Plattform aktiv.
Nur männliche Content Creators auf der Forbes Liste 2018 der 10 YouTube Höchstverdienenden
Genau in diesem bunten Online-Kosmos wurde vor Kurzem darüber diskutiert, dass es keine Diskriminierung des YouTube-Algorithmus gegenüber weiblichen Content Creators gäbe und das eine Diskussion deswegen Quatsch wäre und jegliche Feminismus-Bewegung zunichte machen würde. Aufhänger war die Forbes Liste 2018 der 10 YouTube Höchstverdienenden. Darunter befinden sich ausschließlich männliche Content Creators; großartige Diversität konnte ich auch nicht entdecken. Schnell wurde ich stutzig und mit meinen kritischen Gedanken war ich nicht alleine. Sobald eine Diskussion zum Thema Repräsentation und Diskriminierung nicht konstruktiv weitergeführt, sondern direkt mit Totschlagargumenten gekontert wird, steckt meiner Meinung nach meistens mehr dahinter und umfassende Hintergrundrecherchen und eine konstruktive Diskussion sind angebracht.
Doch erst einmal von vorne: Kritik von YouTuberinnen an der Male-Only YouTuber Forbes-Liste 2018 wurde schnell laut und eben genauso schnell von den größten YouTubern (und YouTuberinnen) wieder niedergeschmettert.
Lilly Singh, mit über 14 Millionen YouTube-Abonennt*innen eine der größten im YouTube-Business, schrieb auf Twitter: “2 years ago it was almost even between male & female, last year it was just me and this year there are no females at all. Something I predicted in my Instagram caption last year. I’m concerned the digital space is going to repeat the mistakes of ancient industries. Hope I’m wrong.” Für diesen kritischen Kommentar wurde sie scharf kritisiert, unter anderem mit wüsten Beschimpfungen von “‘maybe girls just don’t make good content’” bis zu “‘you literally just sound like a crybaby and an idiot’” (und das waren eher die “netten” Formulierungen ihrer Kolleg*innen).
Ihre Antwort: “I tweeted about seeing no women on the YouTubers Forbes list and as a result I received some angry tweets from men. Remind me why YOU are mad again? I’m not playing a “gender card” I am literally stating facts about results in an article.
Let’s do better. I’m not your enemy x”
Viele haben sich von ihrem Statement angegriffen gefühlt. Laut ihrer Aussage wollte sie aber niemandem aus der Liste kränken oder ihre Erfolge schmälern, sondern ein konstruktives Gespräch starten.
Besserer Content = mehr Geld?
Ich habe mir danach sehr viele Videos zu dem Thema angeschaut. Für viele lag der Konsens einfach darin, dass es hier schlichtweg keine Bevorzugung gibt. Der Algorithmus diskriminiere nicht zwischen weiß, schwarz, weiblich, männlich oder Altersklasse. Somit soll es an Content, Qualität und harter Arbeit liegen, wer mehr Klicks erzielt und wer wiederum dadurch mehr Werbeeinnahmen generiert. Oder ganz simpel: Besserer Content = mehr Follower = mehr Geld, egal wer vor der Kamera steht. Und das klingt eigentlich auch logisch. Aber ist der von Menschen geschriebene Algorithmus, der YouTuber*innen auf Trending-Seiten bringt, Videos zu viralen Hits katapultiert und Zuschauer*innen neue YouTube-Kanäle vorschlägt, wirklich immer komplett neutral und unvoreingenommen?
Studien zeigen, dass Algorithmen diskriminieren können
Zum YouTube-Algorithmus kann ich leider nicht viel sagen, aber dass andere Algorithmen bezüglich Geschlecht, Herkunft und Hautfarbe diskriminieren können, wurde in wissenschaftlichen Studien mehrmals bewiesen:
- Ein sehr bedeutsames Beispiel ist eine Untersuchung von der Non-Profit News-Plattform ProPublica: Diese konnte feststellen, dass eine in den USA oft eingesetzte Software das Rückfallrisiko für Afroamerikaner*innen fälschlicherweise meist zu hoch berechnet (fast doppelt so häufig) und für weiße Straffällige meist zu niedrig (ebenfalls doppelt so häufig). Die Ergebnisse der Software haben für die einzelnen Personen zum Beispiel einen Einfluss auf die festgelegten Kautionen, Strafmaße oder frühere Entlassungen, obwohl die Software, wie es sich in der Untersuchung gezeigt hat, häufig Falschaussagen trifft und dabei People of Color (PoC) benachteiligt. Jedoch sind keine Details zur Programmierung der Software bekannt, sodass es keine eindeutigen Schlussfolgerungen gibt, wie es zu dieser Voreingenommenheit kam.
- Eine Studie der Carnegie Mellon University 2015 (Datta, Tschantz und Datta) zeigte weiter, wenn eine Frau (erkannt per Profileinstellung weiblich) via Google nach einem Job suchte, wurden signifikant seltener hochbezahlte Jobangebote vorgeschlagen, verglichen mit den Einstellungen “männlich” für die suchende Person. Eine andere Studie zeigte, dass, obwohl eine Job-Anzeige extra Gender-neutral ausgelegt war, die Anzeige weniger Frauen als Männern angezeigt wurde, da es teurer war, die Anzeige an junge Frauen auszupielen (Quelle).
- Meistens gehen wir davon aus, dass wenn beliebter Content von Algorithmen vorgeschlagen wird, Content mit sehr guter Qualität davon profitiert. Studien haben aber gezeigt, dass es einen sogenannten “Popularity Bias” gibt: Der Algorithmus pusht beliebten Content unabhängig von der Qualität. In manchen Fällen kann Popularität ein Indikator für Qualität sein, aber nur unter bestimmten Umständen. In anderen Fällen, besonders wenn Popularität gefälscht (gekauft) werden kann, steht Popularität nicht mehr für Qualität und kann diese sogar hemmen (Quelle).
- Andere Studien bestätigen, dass Algorithmen Missverhältnisse nicht aus dem Nichts erschaffen, aber bereits bestehende Ungleichheiten verstärken können (Quelle). Die Forscher*innen dieser Studie konnten auch zeigen, dass Social Media-Algorithmen in der Online-Welt eine sogenannte gläserne Decke, auch “Glass Ceiling-Effekt” genannt, erschaffen können, eine unsichtbare Barriere, die vor allem vor allem Frauen am beruflichen Aufstieg hindert. Dazu berichteten sie auch, dass Algorithmen auf Instagram den Glass Ceiling-Effekt verstärken können und zu einer größeren Unterrepräsentation von bestimmten Gruppen führen können, zum Beispiel von Frauen oder bestimmten Minderheiten.
- Ein ehemaliger YouTube-Insider berichtet außerdem, dass der YouTube-Algorithmus besonders kontroverse, polarisierende, reißerische und verschwörerische Videos pusht. (Quelle)
Was bedeuten diese Ergebnisse zum Algorithmic-Bias für das YouTube-Beispiel?
Bitte versteht mich nicht falsch. Die YouTube Top 10 haben ihren Platz verdient, egal ob man ihren Content mag oder nicht. Sie alle arbeiten hart an ihrem Erfolg. Aber die Argumentation “Man muss nur gleich gute Arbeit abliefern und man wird gleich behandelt und verdient gleich, egal ob weiß, schwarz, jung, alt, Migrant*in, Einheimische*r, Mann* oder Frau*” zieht in der Arbeitswelt schon lange nicht mehr und wurde mehrfach widerlegt. Warum sollte das in der Online-Welt anders sein? Es kann viele Gründe dafür geben, dass die Forbes-Liste 2018 der 10 YouTube-Höchstverdienenden so aussieht wie sie aussieht. Aber das Thema “Algorithmic Bias” im Bereich Social Media zumindest zu diskutieren, erachte ich als sehr wichtig. Und auch wenn viele die Plattform YouTube und die ganze Diskussion, die ich oben erwähnt habe, unwichtig finden, ist es trotzdem ein Beispiel der Online-Welt, die heute ohne Zweifel einen großen Teil unseres Lebens bestimmt. Wenn man die Ergebnisse auf politische Entscheidungsfindungen überträgt, bekommt das Ganze einen unguten Beigeschmack.
Abschließend ein Kommentar der Cyber-Security-Expertin Megan Garcia. Sie argumentiert, dass Unternehmen und Regierungen unbewusste und institutionelle Voreingenommenheit, die in Algorithmen einsickern können, wahrnehmen müssen. Denn verzerrte Daten können bedeutsame Ergebnisse verfälschen. Gleichermaßen kann aber, bei Beachten der Auswirkungen von Algorithmen, der Code-Eigenschaften als solche und stetiges Monitoring, die Online-Welt sogar gleichberechtigter gemacht werden. “Aber wenn wir nicht aufpassen”, so schreibt Garcia, “kann unsere Technologie genauso rassistisch, sexistisch und fremdenfeindlich wie wir sein (Quelle)”.
Ich habe meine Recherchen in diesem Bereich erst gestartet und bin gespannt, welche weiteren Studien und Untersuchungen es zu diesem Thema geben wird, was Fairness im Bereich Algorithmen überhaupt bedeutet und wie Unternehmen gleichzeitig ihren Usern Content zeigen, der sie interessiert, und sie gleichzeitig nicht immer tiefer in eine “Bubble” rutschen.
Titelbild Fotocredit: Rawpixel