Jagd Nach Negativität. Künstliche Intelligenz Wird Zur Kontrolle Sozialer Netzwerke Eingesetzt - Alternative Ansicht

Jagd Nach Negativität. Künstliche Intelligenz Wird Zur Kontrolle Sozialer Netzwerke Eingesetzt - Alternative Ansicht
Jagd Nach Negativität. Künstliche Intelligenz Wird Zur Kontrolle Sozialer Netzwerke Eingesetzt - Alternative Ansicht

Video: Jagd Nach Negativität. Künstliche Intelligenz Wird Zur Kontrolle Sozialer Netzwerke Eingesetzt - Alternative Ansicht

Video: Jagd Nach Negativität. Künstliche Intelligenz Wird Zur Kontrolle Sozialer Netzwerke Eingesetzt - Alternative Ansicht
Video: #kurzerklärt: Wie gefährlich ist künstliche Intelligenz? 2024, Oktober
Anonim

Wenn Sie nicht in sozialen Medien leben, leben Sie höchstwahrscheinlich überhaupt nicht. Die Hälfte der Weltbevölkerung kann Ihnen eine so enttäuschende Diagnose stellen. In jedem Fall sind sie laut Statistik heute in sozialen Netzwerken registriert. In Russland beträgt die Anzahl der Netzwerker etwa 30 Millionen.

Psychologen haben bereits Bände über Netzwerksucht geschrieben, die mit einer Droge verglichen wird. Und der Autor des Begriffs "virtuelle Realität", einer seiner Schöpfer, ein Vertreter der Cyber-Elite des Silicon Valley, Jaron Lanier, hat sogar ein Buch darüber geschrieben, warum Sie vor dem sozialen Netzwerk fliehen müssen. Obwohl es sich um einen Bestseller handelt, ist es unwahrscheinlich, dass diese Anrufe eine breite Masse von Nutzern überzeugen. Heute wächst die Bevölkerung in sozialen Netzwerken rasant. Experten zufolge werden sie bis zur Mitte des Jahrhunderts fast die gesamte Bevölkerung des Planeten verwickeln. Es sei denn natürlich, die Menschheit ändert ihre Meinung.

Und es gibt etwas zu denken. In den heutigen Netzwerken gibt es Clubs, die nicht nur den Interessen von Philatelisten und Theaterbesuchern, sondern auch Selbstmorden und Drogenabhängigen dienen. Hier finden Sie Anweisungen für unerfahrene Terroristen, Mitarbeiter im Kampf gegen die derzeitige Regierung und vieles mehr, ehrlich gesagt, negativ. Sie können zum Beispiel an die Selbstmordwelle denken, als es in einem beliebten Online-Spiel einen Boom gab, dessen Endziel Selbstmord ist. Benutzer sozialer Netzwerke (überwiegend Teenager) werden von einem "Kurator" kontaktiert, der gefälschte Konten verwendet. Sie können nicht identifiziert werden. Zunächst erklären sie die Regeln: „Erzählen Sie niemandem von diesem Spiel“, „Erledigen Sie immer Aufgaben, was auch immer sie sein mögen“, „Wenn Sie die Aufgabe nicht erledigen, werden Sie für immer vom Spiel ausgeschlossen und haben schlimme Konsequenzen.

Und Politiker sprechen bereits über das Phänomen der Netzwerke: Sie stürzen Regierungen und wählen sogar Präsidenten. Die Techniken sind überraschend einfach. Über bestimmte unerhörte Handlungen der Behörden werden Fälschungen ins Netzwerk geworfen, und es wird gefordert, auf die Straße zu gehen, um Empörung auszudrücken. Es sind viele Beispiele bekannt, zum Beispiel in Ägypten, Südsudan, Myanmar.

Wie kann die Gesellschaft vor dem zerstörerischen Einfluss sozialer Netzwerke geschützt werden? Dies gilt insbesondere für die jüngere Generation, die die überwiegende Mehrheit in den Netzwerken darstellt.

Für Fachleute, insbesondere Psychologen, ist dies im Prinzip kein Problem. Aber das Volumen der unterschiedlichsten Informationen, einschließlich der negativen, in den Netzwerken ist riesig, selbst die besten Fachleute können die "manuelle" Verarbeitung nicht bewältigen. Das kann nur die Technologie. Und vor allem künstliche Intelligenz (KI), die auf neuronalen Netzen basiert, die die Struktur und Funktion des Gehirns nachahmen. Ein Team von Psychologen der Ersten Staatlichen Medizinischen Universität St. Petersburg, benannt nach I. I. Pawlow und Spezialisten auf dem Gebiet der Informationstechnologie des St. Petersburger Instituts für Informatik und Automatisierung der Russischen Akademie der Wissenschaften.

"Wir sprechen über die Identifizierung verschiedener Gruppen von Menschen, die zu destruktivem Verhalten neigen, mit Hilfe der KI", sagte Professor Igor Kotenko, der diese Gruppe von Wissenschaftlern leitet, dem RG-Korrespondenten. - Psychologen haben uns sieben Optionen für ein solches Verhalten angeboten. Dies ist insbesondere eine negative Lebenseinstellung, die zum Selbstmord führen kann. Dies ist eine Tendenz zu Aggressionen oder Protesten. Dies sind Bedrohungen für eine bestimmte Person oder Personengruppe usw. Unsere Aufgabe ist es, eine KI zu erstellen, die mit diesen Zeichen im übertragenen Sinne arbeiten und sie in die KI „hämmern“kann, damit sie ständig die riesigen Informationen analysieren kann, die durch das Netzwerk laufen, und verschiedene störende Optionen abfängt.

Auf den ersten Blick ist die Aufgabe nicht sehr schwierig. Schließlich ist jeder Bewohner des sozialen Netzwerks, wie sie sagen, in Sichtweite. Auf seiner Seite können Sie sehen, woran er interessiert ist, was er denkt, mit wem er kommuniziert, welche Maßnahmen er selbst ergreift und wozu er andere aufruft. Alles ist auf einen Blick. Beobachten und handeln. Aber wenn alles so offensichtlich wäre … Tatsache ist, dass die Gedanken und das Verhalten einer Person in den meisten Fällen weit davon entfernt sind, so einfach und eindeutig zu sein, wie es scheinen mag. Im Allgemeinen steckt der Teufel im Detail. Und wo für einen Spezialisten alles offensichtlich ist, kann sich die KI irren. Zum Beispiel lehrten kanadische Wissenschaftler AI, zwischen unhöflichen Witzen oder „Hassreden“von nur beleidigenden zu unterscheiden. Das System erwies sich als ziemlich unvollkommen, zum Beispiel ließ es viele offensichtlich rassistische Aussagen aus.

Werbevideo:

Kurz gesagt, alles hängt davon ab, wie die KI unterrichtet wird. Und das System lernt anhand von Beispielen, so wie ein Kind lernt. Schließlich erklären sie ihm nicht, dass eine Katze so einen Schnurrbart, solche Ohren, so einen Schwanz hat. Sie zeigen ihm oft ein Tier und sagen, es sei eine Katze. Und dann wiederholt er selbst diese Lektion viele Male und schaut eine andere Katze an.

Neuronale Netze, die von Wissenschaftlern aus St. Petersburg erstellt wurden, werden auf die gleiche Weise untersucht. Ihnen werden verschiedene Optionen für destruktives Verhalten von Menschen vorgestellt. Die KI behält die von Psychologen entwickelten Zeichen im Kopf und merkt sie sich, um sie dann in den riesigen Informationsströmen in sozialen Netzwerken zu fangen. Professor Kotenko betont, dass die Aufgabe der KI darin besteht, nur ein Trinkgeld für die Zerstörer zu geben, und das letzte Wort gilt für die Spezialisten. Nur sie können sagen, ob die Situation wirklich alarmierend ist und dringend Maßnahmen ergriffen werden müssen oder ob der Alarm falsch ist.

Das Projekt wurde von der Russischen Stiftung für Grundlagenforschung unterstützt.

Juri Medwedew

Empfohlen: