Künstliche Intelligenz Hat Gelernt, Netzwerktrolle Zu Sehen - Alternative Ansicht

Künstliche Intelligenz Hat Gelernt, Netzwerktrolle Zu Sehen - Alternative Ansicht
Künstliche Intelligenz Hat Gelernt, Netzwerktrolle Zu Sehen - Alternative Ansicht

Video: Künstliche Intelligenz Hat Gelernt, Netzwerktrolle Zu Sehen - Alternative Ansicht

Video: Künstliche Intelligenz Hat Gelernt, Netzwerktrolle Zu Sehen - Alternative Ansicht
Video: Künstliche Intelligenz vs. Machine Learning vs. Deep Learning | #KI 2024, Kann
Anonim

Künstliche Intelligenz las die aggressiven Kommentare von Reddit-Benutzern und verstand, wie Menschen, die andere Menschen hassen, sprechen. Es ist schwieriger, ihn zu täuschen als ein normaler Bot-Moderator.

Das Internet wird von fetten und dünnen Trollen bewohnt und nur von unhöflichen Menschen, die nicht nach Worten suchen. Das Internet manuell zu moderieren ist eine schwierige und undankbare Aufgabe. Bots, die so programmiert sind, dass sie nach Wörtern aus der "verbotenen Liste" suchen, sind besser, aber sie können nicht wissen, wann ein ätzender Kommentar mit Codewörtern ein harmloser Witz ist und wann es sich um einen bösen verbalen Angriff handelt.

Forscher in Kanada haben künstliche Intelligenz gelehrt, um unhöfliche Witze von verletzenden Witzen zu unterscheiden und was Soziologen "Hassreden" nennen.

Dana Wormsley, eine der Schöpferinnen der KI, stellt fest, dass "Hassreden" schwer zu formalisieren sind. In der Tat können formal beleidigende Wörter sowohl mit Ironie als auch in ihrer milderen Bedeutung verwendet werden. nur einige der Texte, die solche Wörter enthalten, regen ernsthaft an und demütigen. Wir werden keine Beispiele nennen, da die Regierungsorganisationen, die das Internet in Russland regulieren, noch keine künstliche Intelligenz haben.

Das neuronale Netzwerk wurde anhand der Stichproben der Aussagen von Gemeindemitgliedern trainiert, die für ihre Feindseligkeit gegenüber verschiedenen Bevölkerungsgruppen bekannt sind. Das neuronale Netzwerk lernte aus den Beiträgen von Reddit, einer Plattform, auf der Sie eine Vielzahl von Interessengruppen finden, von Bürgerrechtlern bis zu radikalen Frauenfeindlichen. Die Texte, die in das System hochgeladen wurden, beleidigten am häufigsten Afroamerikaner, übergewichtige Menschen und Frauen.

Ein auf diese Weise trainiertes neuronales Netzwerk ergab weniger Fehlalarme als Programme, die "Hassreden" anhand von Schlüsselwörtern bestimmen. Das System fing Rassismus auf, wo es überhaupt keine Indikatorwörter gab. Trotz der guten Leistung sind sich die Entwickler des KI-Moderators nicht sicher, ob ihre Entwicklung weit verbreitet sein wird. Bisher hat sie erfolgreich Hassreden auf Reddit gefunden, aber ob sie dies auch auf Facebook und anderen Plattformen tun kann, ist unbekannt. Außerdem ist das System unvollkommen und verpasst manchmal viele der scheinbar unhöflichen rassistischen Aussagen, die eine Keyword-Suchmaschine nicht verpassen würde. Der einzige, der eine Beleidigung von einem unschuldigen Witz unterscheiden kann, während die Person bleibt.

Empfohlen: