Rückblick: Mainzer Mediengespräch zur Nutzerwahrnehmung von Algorithmen

Experten diskutierten beim Mainzer Mediengespräch über den gesellschaftlichen Umgang mit Algorithmen und die daraus resultierenden Herausforderungen für eine adäquate Regulierung

Unter dem Titel „Alexa?! Was sind Algorithmen? – Algorithmenbasierte Entscheidungen im Netz und was wir wirklich darüber wissen“ hat am 5. Juni 2019 eine Diskussionsveranstaltung des Mainzer Medieninstituts stattgefunden. Vorgestellt wurden die Befunde einer empirischen Studie des Instituts für Publizistik. Diese beschäftigt sich mit der Wahrnehmung von Algorithmen aus der Nutzerperspektive. Bei der sich anschließenden Podiumsdiskussion stand die Frage im Mittelpunkt, welche Herausforderungen sich daraus für Politik, Recht und Gesellschaft ergeben. Über diese Fragen diskutierten auf dem Podium Petra Ahrweiler, Professorin für Technik- und Innovationssoziologie und Simulationsmethoden am Institut für Soziologie der Universität Mainz, die Kommunikationswissenschaftlerin Leyla Dogruel, Juniorprofessorin am Institut für Publizistik, Prof. Dr. Dieter Kugelmann, der Landesbeauftragte für den Datenschutz und die Informationsfreiheit in Rheinland-Pfalz und Matthias Spielkamp, Journalist und Mitgründer der Initiative AlgorithmWatch. Moderiert wurde die Veranstaltung vom Journalisten und Blogger Richard Gutjahr.

In ihrem Impulsvortrag „Verständnis und Wissen über algorithmenbasierte Entscheidungen im Netz“ stellte die Kommunikationswissenschaftlerin Birgit Stark, Co-Direktorin des Mainzer Medieninstituts, zentrale Ergebnisse einer aktuellen qualitativen Studie mit Mediennutzenden zur Wahrnehmung algorithmenbasierter Entscheidungen im Netz vor. Die Studie, die zusammen mit Juniorprofessorin Leyla Dogruel vom Institut für Publizistik und Dominique Facciorusso, wissenschaftliche Mitarbeiterin des Mainzer Medieninstituts, durchgeführt wurde, basiert auf qualitativen Leitfadeninterviews. Auch wenn nicht alle Nutzer etwas mit dem Begriff bzw. Konzept „Algorithmus“ anfangen können, zeigt sich sowohl für jüngere als auch ältere Nutzer, dass alle ein zumindest vages Bewusstsein darüber haben, dass ihre Internetnutzung durch algorithmisierte Prozesse geprägt ist. Insbesondere für den Bereich von Werbung ist bei so gut wie allen Befragten ein Bewusstsein über das Wirken von Algorithmen zu konstatieren.

Spannend ist das Ergebnis, dass Nutzer vor allem dann auf den Einsatz von Algorithmen aufmerksam werden, wenn sie ungewollt bzw. nicht gesteuert durch eigenes Handeln mit Inhalten wie personalisierter Werbung oder Produktempfehlungen konfrontiert werden. In selbst-gesteuerten Situationen, etwa der Nutzung von Suchmaschinen, Navigation oder gezieltem Online-Shopping sind sich Nutzende weniger darüber bewusst, dass Algorithmen natürlich auch hier zum Einsatz kommen.

Auch über die Vorstellungen der Nutzer zu möglichen Regulierungsansätzen für Algorithmen wurde in den Interviews diskutiert. Deklarationspflichten für Plattformanbieter, die mehr Transparenz schaffen sollen, wie sie beispielsweise im Entwurf zum neuen Medienstaatsvertrag angelegt sind, empfinden Nutzer durchaus als sinnvoll. Allerdings hegten sie Zweifel über die tatsächliche Effektivität dieser Maßnahmen und sehen Transparenzpflichten eher als geeignetes Mittel an, um Menschen überhaupt für den Einsatz von Algorithmen zu sensibilisieren.

In der Diskussion hob Spielkamp die Allgegenwärtigkeit von Algorithmen hervor: „Ohne Algorithmen funktioniert kein technisches Gerät. Algorithmen spielen schon dann eine Rolle, wenn wir den Computer oder auch nur den Taschenrechner einschalten.“ Auch hätten Algorithmen Vor- und Nachteile, je nachdem wie sie benutzt würden. Als interessantes Beispiel nannte er Navigationssysteme, die mit Echtzeitdaten arbeiteten und Autofahrern bei Staus Ausweichstrecken anböten. „Dann schlägt das Navi vor, dass der Fahrer durch ein Wohngebiet fahren soll, das dadurch völlig verstopft wird“, so Spielkamp. Solche negativen Auswirkungen von algorithmenbasierten Vorschlägen könnten jedoch nur schwer antizipiert werden. Vielmehr zeigten sie sich erst in der konkreten Anwendung.

Im Zusammenhang mit Navigationssystemen und anderen Programmen, die dem Nutzer eigene Entscheidungen abnähmen, verwies Ahrweiler auf eine in der Literatur vertretene These. Danach verlernten wir dadurch, dass uns Entscheidungen in komplexen Landschaften zunehmend abgenommen würden, die Fähigkeit, uns in komplexen Landschaften zu bewegen. Übertragen auf die Politik könnte die Frage dann lauten: Verlernen wir wirklich Politik, wenn wir den Wahl-O-Mat einsetzen?

Da Algorithmen – wie die Beispiele Navigationssysteme und Wahl-O-Mat zeigen – einen großen Einfluss auf individuelle Entscheidungen haben können, sprach sich Dogruel für mehr Transparenz aus. Transparenz sei eine Grundvoraussetzung für das Bewusstsein über das Wirken von Algorithmen und die Möglichkeit, dass Nutzer darüber reflektieren. Gleichzeitig müsse die Politik die Bedingungen dafür schaffen, dass Personen die Möglichkeit haben, algorithmischen Entscheidungen zu widersprechen, diese zu korrigieren um die Nutzerautonomie zu wahren.

Ahrweiler hielt es für bemerkenswert, dass bereits die Industrie nach Guidelines für Künstliche Intelligenz fragt. Dass sich große Player mittlerweile für einheitliche Regeln in Europa stark machen, bestätigte auch Datenschützer Kugelmann. Das habe aber vorrangig den Grund, dass solche Regeln die Rechtssicherheit erhöhen, die die großen Player als Grundlage für ihre Geschäfte in Europa benötigen.