27. Juni 2018

Spätestens seit der US-Präsidentschaftswahl 2016 wissen wir, dass mithilfe von Algorithmen Nutzerdaten verwendet werden können, um Botschaften im Internet gezielt zu personalisieren und damit möglicherweise Meinungen zu beeinflussen.

 

Künstliche Intelligenz (KI) entscheidet auf Basis von Datenanalysen, was den Nutzern gezeigt wird und was nicht. Bereits vertraut sind solche Mechanismen, wenn wir unser Suchverhalten im Internet bei entsprechend personalisierter Werbung wiedererkennen. Algorithmen unterstützen viele Prozesse im Hinblick auf Effizienz und teilweise auch Genauigkeit, jedoch können sie damit auch unsere Entscheidungen beeinflussen.

 

Bisher ist unklar, wie stark der Einfluss von Algorithmen auf Meinungsbildungsprozesse (sei das politisch, oder bei Kaufentscheidungen) tatsächlich ist. Viele Experten denken jedoch, dass der sogenannte algorithmic bias (in Deutsch „algorithmische Verzerrung“) zu einem schwerwiegenden sozialen Problem werden könnte. Unumstritten ist, dass Algorithmen eine zunehmende Bedeutung zukommt und Themen wie Transparenz, Nachvollziehbarkeit und Ethik immer wichtiger werden. Das frühzeitige Erkennen und Diskutieren potenziell negativer Entwicklungen ist zentral, um technologische Innovationen gesellschaftlichen Bedürfnissen anzupassen. Das meinen auch Forscher vom AI-Now-Institute, welches von Kate Crawford (Microsoft) und Meredith Whittaker (Google) in den USA gegründet wurde, um mit Experten über die kommenden Herausforderungen der künstlichen Intelligenz zu sprechen.

 

Generell ist es wichtig, informierte Entscheidungen der Menschen zu unterstützen und so ihre Eigenverantwortung bei der Meinungsbildung in den Vordergrund zu rücken. Die Frage stellt sich, wie das (auch) in der digitalen Zeit garantiert werden kann, wo doch viele Prozesse durch KI-Systeme gesteuert werden. Braucht es ein konkretes Modell zur nachvollziehbaren Darlegung algorithmischer Entscheidungen? Oder muss jeweils erst diskutiert werden, ob algorithmische Entscheidungssysteme angemessene Ziele verfolgen, bevor diese entwickelt oder eingesetzt werden? Welche Sorgen und Hoffnungen prägen Schweizerinnen und Schweizer aktuell im Hinblick auf den Einsatz von Algorithmen? Um sich solchen Fragen anzunähern, hat sich die Stiftung Risiko-Dialog in Online-Diskussionen mit jungen Teilnehmer/innen („Digital Natives“) über deren Informationsbeschaffungsverhalten ausgetauscht.

 

Obschon diese Zielgruppe, die mit digitalen Medien aufgewachsen ist, vermeintlich die grösste Medienkompetenz besitzt, haben die Online-Diskussionen gezeigt, dass selbst bei ihnen wenig Bewusstsein und Wissen rund um den Einfluss von Algorithmen vorhanden ist. Einzig bei der Festlegung von Ticket-Preisen auf Buchungsplattformen oder der Auswahl an Werbung auf Seiten wie Facebook waren sich die Diskussionsteilnehmenden bewusst, dass ihr eigenes «Internetverhalten» mitbestimmt, was sie angezeigt bekommen. Umso stärker wurde aber das Bedürfnis geäussert, künftig besser zu verstehen wie Algorithmen wirken und zu wissen, welchen Einfluss diese im alltäglichen Leben und im Bilden von Entscheidungen haben. In der Schweiz geht ihrer Meinung nach allerdings noch keine Gefahr von KI auf Meinungsbildungsprozesse aus, was unter anderem mit dem hohen Vertrauen in Staat und öffentliche Medienhäuser zusammenhängt. Dennoch fordern sie mehr Transparenz und bessere Aufklärung – gerade auch für nicht so hoch Gebildete. Denn die Bildung wird als entscheidender Faktor wahrgenommen, wenn es darum geht, Informationen kritisch zu hinterfragen und vertrauenswürdige Information von weniger vertrauenswürdigen unterscheiden zu können. Weiter kam die Meinung auf, dass eine Offenlegung der Finanzierung privater Medienhäuser und die Angabe von Quellen dabei helfen würde, Informationen besser bewerten zu können. Hauptherausforderung stellt laut den Befragten die benötigte Zeit dar, welche oftmals fehlt, um sich mit der Vielfalt an verfügbarer Information auseinanderzusetzen. Hier wurden Algorithmen wiederum als mögliche Problemlöser identifiziert: KI-Systeme könnten unterstützen, Falschmeldungen und unseriöse Quellen zu erkennen und zu melden und könnten diesen Prozess effizienter gestalten.

 

Alles in allem glauben die Teilnehmer_innen unserer Fokusgruppen einen genug freien Zugang zu vertrauenswürdigen Quellen zu haben, um sich eine differenzierte Meinung zu bilden. Trotzdem besteht das Bedürfnis, die genannten Technologien künftig besser zu verstehen. Die Stiftung Risiko-Dialog glaubt ebenfalls, dass in der Schweiz die Voraussetzungen für eine freie Meinungsbildung auch heute noch gut sind. Jedoch ist es wichtig, frühzeitig auf Chancen und Gefahren der Digitalisierung auf die Meinungsbildung einzugehen. Vielleicht werden wir morgen schon eine Lösung haben, dass jeder von uns sein eigenes persönliches KI-System hat. Unser Bot steht dann den KI-Systemen von Suchmaschinen und Newsportalen gegenüber und hilft, basierend auf Meinungsvielfalt und Argumenten uns kompetent eine Meinung zu bilden.

 

Timothy Rüthi

 

Weitere spannende Artikel zu diesem Thema:
„The political effects of algorithms: a look at Facebook and Google“, Diggit Magazine
„Accountability in Algorithmic Decision Making“, Nicholas Diakopoulos