Wie Bots Demokratie Und öffentlichen Diskurs Im Web Töten - Alternative Ansicht

Wie Bots Demokratie Und öffentlichen Diskurs Im Web Töten - Alternative Ansicht
Wie Bots Demokratie Und öffentlichen Diskurs Im Web Töten - Alternative Ansicht

Video: Wie Bots Demokratie Und öffentlichen Diskurs Im Web Töten - Alternative Ansicht

Video: Wie Bots Demokratie Und öffentlichen Diskurs Im Web Töten - Alternative Ansicht
Video: Wahlkampf der Bots – wie sehr beeinflussen Propagandamaschinen die Meinungsbildung? 2024, September
Anonim

Die Kampagne für die Präsidentschaftswahlen in den Vereinigten Staaten hat offiziell begonnen, was wiederum eine Fülle seltsamer und heimtückischer Arten bedeutet, in denen Technologie die Politik verzerrt. Eine der größten Bedrohungen sind künstliche Persönlichkeiten, die leidenschaftlich in politische Streitigkeiten verwickelt sind. Einerseits entwickelt sich die Technologie zur Erzeugung von Text auf der Basis künstlicher Intelligenz schneller als je zuvor, andererseits haben Chatbots in sozialen Netzwerken fast die Perfektion erreicht. Diese computergenerierten "Menschen" werden bald echte menschliche Diskussionen im Web übertönen.

Die Software zur Texterzeugung ist gut genug entwickelt, um fast jeden zum Narren zu halten. Der Computer kann hervorragend Nachrichten schreiben, insbesondere zu Sport und Finanzen, Kunden auf Investitionsseiten beraten und überzeugende Artikel zu anderen Nachrichtenthemen schreiben (obwohl es Einschränkungen gibt).

Gleichzeitig gibt es bereits Algorithmen, mit denen Inhalte generiert werden können, die nicht von den Posts normaler Benutzer zu unterscheiden sind. 2017 führte die FCC eine öffentliche Debatte über ihre Pläne zur Beendigung der Netzneutralität. Zu diesem Thema gingen erstaunliche 22 Millionen Kommentare ein. Viele von ihnen - vielleicht die Hälfte - waren gefälscht, wobei die Angreifer gestohlene ID-Daten verwendeten. Einige der Kommentare waren unhöflich, 1,3 Millionen wurden aus derselben Vorlage generiert - einige Wörter wurden darin geändert, um die Nachrichten einzigartig zu machen.

Und Technologien in diesem Bereich entwickeln sich aktiv weiter. In seinem Experiment verwendete der Harvard-Forscher Max Weiss als Textgenerierungssoftware 1.000 Kommentare als Reaktion auf die Medicaid-Initiative der Regierung. Alle diese Kommentare waren einzigartig und sahen aus, als wären sie von echten Menschen verfasst worden, die eine bestimmte politische Position unterstützen. Sie haben es geschafft, die Administratoren von Medicaid.gov dazu zu bringen, zu glauben, sie seien echte Ängste vor echten Menschen. Im Verlauf seiner Recherchen stellte Weiss anschließend fest, dass die Kommentare gefälscht waren, und forderte sie auf, entfernt zu werden. Es ist jedoch unwahrscheinlich, dass eine andere Person oder Gruppe von Eindringlingen, die diesem Weg folgen, so moralisch ist.

Chatbots werden seit vielen Jahren in Social-Media-Diskussionen vorgestellt. Einer Schätzung zufolge wurde etwa ein Fünftel aller Tweets über die Präsidentschaftswahlen 2016 von Bots veröffentlicht, und etwa ein Drittel der Stimmen für den Brexit im selben Jahr. In einem Bericht der Universität Oxford vom letzten Jahr fanden Forscher Hinweise darauf, dass Bots zur Verbreitung von Propaganda in 50 Ländern eingesetzt werden. In der Regel handelte es sich um einfache Programme, die Slogans gedankenlos wiederholten: Zum Beispiel eine Viertelmillion pro-saudischer Tweets "Wir alle glauben an Mohammed bin Salman" nach der Ermordung von Jamal Khashoggi im Jahr 2018. Es ist viel schwieriger, bessere Bots zu finden. Und die Wirksamkeit dieser Bots zu messen ist schwierig. Sie alle verzerren die öffentliche Meinung und den Glauben an eine gut begründete politische Debatte. Eigentlich,Wir sind alle mitten in einem neuen sozialen Experiment.

Im Laufe der Jahre haben algorithmische Bots ganze Persönlichkeiten entwickelt. Sie haben gefälschte Namen, gefälschte Biografien und gefälschte Fotos, manchmal computergeneriert. Anstatt endlos Propaganda auszuspucken, veröffentlichen sie nur gelegentlich Nachrichten. Forscher stellen möglicherweise fest, dass sie Bots und keine Menschen sind, basierend auf Posting-Mustern, aber die Bot-Technologie verbessert sich ständig und übertrifft die Versuche, sie zu verfolgen. Die Bots der Zukunft werden sich besser als soziale Gruppen von Menschen verkleiden, und Propaganda wird subtil in Tweets zu Themen verwoben, die mit diesen sozialen Gruppen zusammenhängen.

In Kürze werden Sims, die vom Programm kontrolliert werden, in der Lage sein, personalisierte Briefe an Zeitungen, PMs an gewählte Beamte zu schreiben, personalisierte Kommentare für öffentliche Regelungsprozesse abzugeben und intelligent über politische Themen in sozialen Medien zu sprechen. Sie können Beiträge in sozialen Netzwerken, auf Nachrichtenseiten usw. kommentieren. Es werden permanente Charaktere erstellt, die selbst für diejenigen, die sie studieren, real erscheinen. Sie können sich in sozialen Medien präsentieren und personalisierte Texte senden. Sie werden sich millionenfach replizieren und rund um die Uhr Milliarden von Nachrichten senden, lange und kurze. Zusammen können sie jede echte Debatte im Internet übertönen. Nicht nur in den sozialen Medien, sondern überall dort, wo es Kommentare gibt.

Vielleicht werden diese Charaktere von ausländischen Eindringlingen kontrolliert. Vielleicht sind dies interne politische Gruppen. Vielleicht sind es die Kandidaten selbst. Höchstwahrscheinlich wird es jeder benutzen. Die wichtigste Lehre aus den Wahlen 2016 zum Thema Desinformation ist nicht, dass Desinformation veröffentlicht wurde. Aber es ist billig und leicht, Leute falsch zu informieren. Zukünftige technologische Fortschritte werden all dies noch erschwinglicher machen.

Werbevideo:

Unsere Zukunft wird eine gewalttätige politische Debatte sein, in der Bots hauptsächlich mit anderen Bots streiten. Dies stellen wir uns nicht vor, wenn wir den Markt für Ideen oder demokratische politische Prozesse loben. Damit eine Demokratie richtig funktioniert, sind zwei Dinge erforderlich: Information und Repräsentation. Künstliche Charaktere treffen beide Dinge.

Die Lösung des Problems ist noch nicht offensichtlich. Wir können versuchen, die Verwendung von Bots zu regulieren - das vorgeschlagene kalifornische Gesetz verlangt, dass sich Bots ausweisen -, aber dies ist nur gegen legitime Influencer-Kampagnen wie Anzeigen wirksam. Der versteckte Einfluss wird viel schwieriger zu erkennen sein. Die offensichtlichste Verteidigung ist die Entwicklung und Standardisierung besserer Authentifizierungsmethoden. Wenn soziale Netzwerke sicher sind, dass sich hinter jedem Konto eine echte Person befindet, können sie gefälschte Personen besser ausmerzen. Es werden jedoch bereits regelmäßig gefälschte Konten mit Daten von realen Personen ohne deren Wissen oder Zustimmung erstellt. Wir haben kein Authentifizierungssystem, das die Privatsphäre schützt und Milliarden von Benutzern erreichen kann.

Wir können nur hoffen, dass unsere Fähigkeit, künstliche Persönlichkeiten zu identifizieren, unsere Fähigkeit, sie zu maskieren, einholt. Im Moment sind Angreifer jedoch immer einen Schritt voraus.

Letztendlich müssen alle Entscheidungen nicht technisch sein. Wir müssen die Grenzen der politischen Debatte im Internet erkennen und erneut die persönliche Kommunikation priorisieren. Es ist schwieriger zu automatisieren und wir wissen, dass die Menschen, mit denen wir sprechen, echte Menschen sind. Bisher scheint dieser kulturelle Wandel jedoch eine völlig unrealistische Lösung zu sein, und Desinformationsversuche sind weltweit verbreitet und werden in mehr als 70 Ländern durchgeführt. Dies ist die normale Art der Propaganda in Ländern mit autoritären Regimen und wird zu einer Art der Durchführung einer politischen Kampagne.

Künstliche Charaktere sind die Zukunft der Propaganda. Und obwohl sie die Diskussion nicht effektiv auf einen bestimmten Nenner bringen können, können sie die Diskussion leicht völlig übertönen.

BRUCE SCHNEIER ist wissenschaftliche Mitarbeiterin und Dozentin an der Harvard Kennedy School.