Sie Wissen Sofort, Dass Dies Porno Ist. Wird Der Computer Verstehen? - Alternative Ansicht

Inhaltsverzeichnis:

Sie Wissen Sofort, Dass Dies Porno Ist. Wird Der Computer Verstehen? - Alternative Ansicht
Sie Wissen Sofort, Dass Dies Porno Ist. Wird Der Computer Verstehen? - Alternative Ansicht

Video: Sie Wissen Sofort, Dass Dies Porno Ist. Wird Der Computer Verstehen? - Alternative Ansicht

Video: Sie Wissen Sofort, Dass Dies Porno Ist. Wird Der Computer Verstehen? - Alternative Ansicht
Video: Midnight Espionage | Critical Role: THE MIGHTY NEIN | Episode 12 2024, September
Anonim

Tumblr kündigte Anfang letzten Monats an, Pornos zu verbieten. Als die neue Inhaltsrichtlinie in Kraft trat, wurde ungefähr zwei Wochen später - am 17. Dezember - klar, dass es Probleme geben würde. Nach dem Einsatz eines künstlichen Intelligenzsystems, das jegliche Pornografie auf der Website verbieten sollte, wurden fälschlicherweise unschuldige Beiträge in 455,4 Millionen Blogs auf der Website unter 168,2 Milliarden Beiträgen gekennzeichnet: Vasen, Hexen, Fisch und all dieser Jazz.

Pornografie für künstliche Intelligenz

Obwohl unklar ist, welcher automatische Filter Tumblr verwendet oder selbst erstellt hat - das Unternehmen hat auf Anfragen zu diesem Thema nicht geantwortet -, ist klar, dass das soziale Netzwerk zwischen seiner eigenen Politik und Technologie steckt. Zum Beispiel hat die inkonsistente Haltung der Website zu "Frauen mit Brustwarzen" und künstlerischer Nacktheit zu kontextbezogenen Entscheidungen geführt, die zeigen, dass selbst Tumblr nicht weiß, was er auf seiner Plattform verbieten soll. Wie kann ein häufiges Unternehmen feststellen, was es für obszön hält?

Erstens ist es schwierig, riskante Inhalte zu blockieren, da es von Anfang an schwierig ist zu definieren, um was es sich handelt. Die Definition von Obszönität ist eine Bärenfalle, die mehr als hundert Jahre alt ist. Bereits 1896 verabschiedeten die Vereinigten Staaten erstmals Gesetze zur Regulierung von Obszönität. 1964 erließ der Oberste Gerichtshof in Jacobellis gegen Ohio, ob Ohio die Vorführung eines Louis Malle-Films verbieten könnte, die heute wohl berühmteste Definition von Hardcore-Pornografie: „Ich werde heute nicht versuchen, diese Art von Material weiter zu definieren. so wie ich es verstehe, wird es in die wörtliche Beschreibung aufgenommen; und ich werde es vielleicht nie verständlich machen können “, sagte Richter Potter Stewart. "Aber ich weiß, was es ist, wenn ich es sehe, und der Film, der mit diesem Fall verbunden ist, ist es nicht."

Algorithmen für maschinelles Lernen haben das gleiche Problem. Dies ist genau das Problem, das Brian Delorge, CEO von Picnix, einem Unternehmen, das spezialisierte Technologien für künstliche Intelligenz verkauft, zu lösen versucht. Eines ihrer Produkte, Iris, ist eine clientseitige Anwendung zum Erkennen von Pornografie, um „Menschen zu helfen“, wie Delorge sagt, „die in ihrem Leben keinen Porno wollen“. Er merkt an, dass das besondere Problem mit Pornos darin besteht, dass es alles sein kann, eine Reihe verschiedener Dinge - und Bilder, die nicht pornografisch sind, können ähnliche Elemente haben. Das Strandparty-Bild wird möglicherweise nicht blockiert, weil es mehr Haut als das Bürofoto enthält, sondern weil es sich am Rand befindet. „Deshalb ist es sehr schwierig, einen Bilderkennungsalgorithmus zu trainieren, um alles auf einmal zu erledigen“, sagt DeLorge."Wenn die Definition für den Menschen schwierig wird, hat der Computer auch Schwierigkeiten." Wenn sich die Leute nicht einig sind, was Pornos sind und was nicht, kann ein Computer dann überhaupt hoffen, den Unterschied zu erkennen?

Um einer KI das Erkennen von Pornos beizubringen, müssen Sie sie zuerst mit Pornos füttern. Viel Pornografie. Wo kann ich das bekommen? Nun, das erste, was die Leute tun, ist, eine Reihe von Videos von Pornhub, XVideos, herunterzuladen, sagt Dan Shapiro, Mitbegründer von Lemay.ai, einem Startup, das KI-Filter für seine Kunden erstellt. "Dies ist eine dieser Grauzonen rechtlicher Natur. Wenn Sie beispielsweise aus den Inhalten anderer lernen, gehört sie Ihnen?"

Nachdem Programmierer Tonnen von Pornos heruntergeladen haben, schneiden sie nicht-pornografisches Filmmaterial aus dem Video aus, um sicherzustellen, dass das verwendete Filmmaterial die Pizzaboten nicht blockiert. Plattformen bezahlen Menschen, hauptsächlich außerhalb der USA, für die Kennzeichnung solcher Inhalte. Der Job ist schlecht bezahlt und langweilig, wie das Eingeben eines Captchas. Sie sitzen nur da und bemerken: Das ist Porno, das ist das. Sie müssen ein wenig filtern, da alle Pornos mit einem Etikett versehen sind. Lernen ist besser, wenn Sie nicht nur Fotos, sondern auch große Datenmengen verwenden.

Werbevideo:

„Oft muss man nicht nur den Porno filtern, sondern auch das Begleitmaterial“, sagt Shapiro. "Wie gefälschte Profile mit dem Foto und dem Telefon eines Mädchens." Er bezieht sich auf Sexarbeiterinnen, die Kunden suchen, aber es könnte alles sein, was nicht ganz legal ist. "Das ist kein Porno, aber so etwas willst du nicht auf deiner Plattform sehen, oder?" Ein guter automatisierter Moderator lernt aus Millionen - wenn nicht zig Millionen - Beispielinhalten, wodurch Sie Tonnen von Arbeitsstunden sparen können.

"Sie können dies mit dem Unterschied zwischen einem Kind und einem Erwachsenen vergleichen", sagt Matt Zeiler, CEO und Gründer von Clarifai, einem Computer Vision-Startup, das diese Art der Bildfilterung für Unternehmenskunden durchführt. „Ich kann es dir sicher sagen - vor ein paar Monaten hatten wir ein Baby. Sie wissen nichts über die Welt, alles ist neu für sie. " Sie müssen dem Kind (dem Algorithmus) viele Dinge zeigen, damit es etwas versteht. „Millionen und Abermillionen von Beispielen. Aber als Erwachsene - wenn wir so viel Kontext über die Welt geschaffen und verstanden haben, wie sie funktioniert - können wir aus nur wenigen Beispielen etwas Neues lernen. " (Ja, wenn man einer KI beibringt, Inhalte für Erwachsene zu filtern, zeigt man einem Kind viel Porno.) Unternehmen wie Clarifai wachsen heute rasant. Sie haben eine gute Datenbank der Welt, sie können Hunde von Katzen unterscheiden, die nackt gekleidet sind. Das Unternehmen von Zeiler verwendet seine Modelle, um neue Algorithmen für seine Kunden zu trainieren. Da das ursprüngliche Modell viele Daten verarbeitete, würden personalisierte Versionen nur neue Datensätze erfordern, um zu funktionieren.

Es ist jedoch schwierig für den Algorithmus, es richtig zu machen. Es macht sich gut mit Inhalten, die offensichtlich pornografisch sind; Ein Klassifizierer markiert eine Unterwäscheanzeige jedoch möglicherweise fälschlicherweise als verboten, da das Bild mehr Leder enthält als beispielsweise ein Büro. (Mit Bikinis und Unterwäsche ist es laut Zeiler sehr schwierig). Dies bedeutet, dass sich die Vermarkter bei ihrer Arbeit auf diese Randfälle konzentrieren und die schwer zu klassifizierenden Modelle priorisieren sollten.

Was ist der schwierigste Teil?

"Anime-Porno", sagt Zeiler. "Die erste Version unseres Nacktheitsdetektors verwendete keine Cartoon-Pornografie für Bildungszwecke." Oft hat die KI etwas falsch gemacht, weil sie Hentai nicht erkannt hat. „Nachdem wir für den Kunden daran gearbeitet haben, haben wir viele seiner Daten in das Modell eingefügt und die Genauigkeit des Cartoon-Filters erheblich verbessert, während die Genauigkeit realer Fotos erhalten blieb“, sagt Zeiler.

Die Technologie, die gelehrt wurde, um Pornos auszuspionieren, kann auch für andere Dinge verwendet werden. Die Technologien hinter diesem System sind bemerkenswert flexibel. Das ist mehr als Anime Titten. Jigsaw von Alphabet wird beispielsweise häufig als automatischer Kommentarmoderator in einer Zeitung verwendet. Diese Software funktioniert ähnlich wie Bildklassifizierer, nur dass sie eher nach Toxizität als nach Nacktheit sortiert ist. (Die Toxizität in Textkommentaren ist ebenso schwer zu bestimmen wie die Pornografie in Bildern.) Facebook verwendet diese Art der automatischen Filterung, um Selbstmordnachrichten und terroristische Inhalte zu erkennen, und hat versucht, diese Technologie zu verwenden, um gefälschte Nachrichten auf seiner massiven Plattform zu erkennen.

All dies hängt immer noch von der menschlichen Aufsicht ab; Wir können besser mit Mehrdeutigkeiten und mehrdeutigen Kontexten umgehen. Zeiler sagt, er glaube nicht, dass sein Produkt irgendjemandes Arbeit übernommen hat. Es löst das Problem der Internet-Skalierung. Menschen trainieren weiterhin KI, indem sie Inhalte sortieren und kennzeichnen, damit die KI sie unterscheiden kann.

Dies ist die Zukunft der Moderation: maßgeschneiderte, schlüsselfertige Lösungen für Unternehmen, die ihr gesamtes Geschäft betreiben, indem sie immer fortgeschritteneren Klassifizierern mehr Daten beibringen. Genau wie Stripe und Square sofort einsatzbereite Zahlungslösungen für Unternehmen anbieten, die diese nicht selbst verarbeiten möchten, werden Startups wie Clarifai, Picnix und Lemay.ai Online-Moderationen durchführen.

Dan Shapiro von Lemay.ai ist hoffnungsvoll. „Wie bei jeder Technologie wird sie noch erfunden. Ich glaube also nicht, dass wir nachgeben werden, wenn wir versagen. " Aber wird die KI jemals in der Lage sein, ohne menschliches Versehen autonom zu arbeiten? Unverständlich. "Es gibt keinen kleinen Mann in einer Schnupftabakdose, der jeden Schuss filtert", sagt er. "Sie müssen Daten von überall abrufen, um den Algorithmus darauf zu trainieren."

Zeiler hingegen glaubt, dass künstliche Intelligenz eines Tages alles von selbst moderieren wird. Am Ende wird die Anzahl menschlicher Eingriffe auf null oder wenig Aufwand reduziert. Allmählich werden menschliche Anstrengungen zu etwas, was die KI jetzt nicht kann, wie hochrangiges Denken, Selbstbewusstsein - alles, was Menschen haben.

Das Erkennen von Pornografie gehört dazu. Die Identifizierung ist für den Menschen eine relativ triviale Aufgabe, aber es ist viel schwieriger, einen Algorithmus zum Erkennen von Nuancen zu trainieren. Das Bestimmen des Schwellenwerts, wenn ein Filter ein Bild als pornografisch oder nicht pornografisch markiert, ist ebenfalls eine schwierige Aufgabe, teilweise mathematisch.

Künstliche Intelligenz ist ein unvollkommener Spiegel unserer Sicht auf die Welt, genau wie Pornografie ein Spiegelbild dessen ist, was zwischen Menschen geschieht, wenn sie allein sind. Es ist etwas Wahres darin, aber es gibt kein vollständiges Bild.

Ilya Khel

Empfohlen: