Warum Ist Künstliche Intelligenz, Die Kriminelle Beurteilt, Gefährlich? - Alternative Ansicht

Inhaltsverzeichnis:

Warum Ist Künstliche Intelligenz, Die Kriminelle Beurteilt, Gefährlich? - Alternative Ansicht
Warum Ist Künstliche Intelligenz, Die Kriminelle Beurteilt, Gefährlich? - Alternative Ansicht

Video: Warum Ist Künstliche Intelligenz, Die Kriminelle Beurteilt, Gefährlich? - Alternative Ansicht

Video: Warum Ist Künstliche Intelligenz, Die Kriminelle Beurteilt, Gefährlich? - Alternative Ansicht
Video: #kurzerklärt: Wie gefährlich ist künstliche Intelligenz? 2024, Kann
Anonim

Künstliche Intelligenz hilft bereits dabei, Ihre Zukunft in irgendeiner Weise zu bestimmen. Wenn Sie in einer Suchmaschine nach etwas suchen, verwenden Sie einen Dienst wie Netflix, oder eine Bank bewertet Ihre Hypothekenberechtigung. Aber was passiert, wenn künstliche Intelligenz vor Gericht feststellen muss, ob Sie schuldig sind oder nicht? Seltsamerweise kann dies in einigen Ländern bereits geschehen. Kürzlich wurde John Roberts, High Justice der USA, gefragt, ob er sich einen Tag vorstellen könne, an dem "intelligente Maschinen, die von künstlicher Intelligenz kontrolliert werden, bei der Suche nach Beweisen oder sogar bei Gerichtsentscheidungen helfen". Er antwortete: "Dieser Tag ist bereits gekommen und er hilft den Justizbehörden in den Verfahren erheblich."

Vielleicht bezog sich Roberts auf den jüngsten Fall von Eric Loomis, der auf Empfehlung geheimer proprietärer Software eines privaten Unternehmens zu sechs Jahren Gefängnis verurteilt wurde. Loomis, der bereits eine kriminelle Vorgeschichte hatte und wegen Flucht vor der Polizei in einem gestohlenen Auto verurteilt wurde, behauptet nun, sein Verfahrensrecht sei verletzt worden, da weder er noch seine Vertreter den Empfehlungsalgorithmus überprüfen oder anfechten konnten.

Der Bericht wurde von der Compas-Software erstellt, die von Notrpointe an Schiffe verkauft wird. Das Programm verkörpert einen neuen Trend in der KI-Forschung: Richter dabei zu unterstützen, vor Gericht „bessere“(oder zumindest datengesteuerte) Entscheidungen zu treffen.

Während die spezifischen Details des Loomis-Falls geschlossen bleiben, enthält er sicherlich Diagramme und Zahlen, die das Leben, Verhalten und die Wahrscheinlichkeit eines Rückfalls von Loomis definieren. Dazu gehören Alter, Rasse, Geschlechtsidentität, Gewohnheiten, Browserverlauf und einige Schädelmessungen. Niemand weiß es genauer.

Es ist bekannt, dass der Staatsanwalt dem Richter gegenüber dem Richter erklärte, Loomis habe "ein hohes Risiko für Rückfälle, Gewalt und Gerichtsverfahren" nachgewiesen. Dies ist Standard, wenn es um die Verurteilung geht. Der Richter stimmte zu und sagte zu Loomis: "Compas hat ihn als eine Person mit hohem Risiko für die Gesellschaft identifiziert."

Der Oberste Gerichtshof von Wisconsin verurteilte Loomis und fügte hinzu, dass der Compas-Bericht seiner Entscheidung wertvolle Informationen hinzufügte, stellte jedoch fest, dass er ohne ihn das gleiche Urteil erlassen habe. Natürlich können Sie dies nicht sicher überprüfen. Welche kognitiven Vorurteile kann es geben, wenn ein allmächtiges „intelligentes“System wie Compas Richter darüber berät, was zu tun ist?

Unbekannte Verwendung

Werbevideo:

Seien wir ehrlich, es ist nichts "Illegales" an dem, was das Gericht in Wisconsin getan hat - dies ist nur ein Beispiel. Andere Gerichte können und werden das Gleiche tun.

Leider wissen wir nicht, inwieweit KI und andere Algorithmen bei der Verurteilung verwendet werden. Es wird angenommen, dass einige Gerichte Systeme wie Compas in geschlossenen Verfahren "testen", aber keine Partnerschaft beanspruchen können. Es besteht auch die Auffassung, dass mehrere KI-Startups solche intelligenten Systeme entwickeln.

Image
Image

Die Verwendung von KI in der Gesetzgebung beginnt oder endet jedoch nicht mit einem Satz, sondern mit einer Untersuchung. Großbritannien hat bereits das VALCRI-System entwickelt, das in Sekundenschnelle zeitaufwändige Analysearbeiten durchführt und unzählige Daten wie Texte, Laborberichte und Polizeidokumente durchsucht, um Dinge zu isolieren, die möglicherweise weiterer Untersuchungen bedürfen.

Die britische West Midlands Police wird VALCRI in den nächsten drei Jahren anhand anonymer Daten testen, die über 6,5 Millionen Datensätze enthalten. Ein ähnlicher Test wird von der Antwerpener Polizei in Belgien durchgeführt. In der Vergangenheit waren KI- und Deep-Learning-Projekte mit massiven Datensätzen jedoch problematisch.

Vorteile für die Wenigen

Die Technologie hat Gerichtssälen viele nützliche Hilfsmittel zur Verfügung gestellt, von Kopiergeräten über die DNA-Extraktion von Fingerabdrücken bis hin zu ausgeklügelten Überwachungstechniken. Dies bedeutet jedoch nicht, dass eine Technologie eine Verbesserung darstellt.

Während der Einsatz von KI bei Ermittlungen und Verurteilungen möglicherweise Zeit und Geld sparen kann, wirft dies akute Probleme auf. Ein Compas-Bericht von ProPublica machte deutlich, dass Schwarze vom Programm fälschlicherweise als rückfälliger als Weiße angesehen wurden. Selbst die ausgefeiltesten KI-Systeme können die rassistischen und geschlechtsspezifischen Vorurteile derer erben, die sie schaffen.

Was bringt es außerdem, die Entscheidungsfindung (zumindest teilweise) in Bezug auf Probleme, die nur für Menschen gelten, auf einen Algorithmus zu verlagern? In den Vereinigten Staaten gibt es eine gewisse Schwierigkeit, wenn Jurys ihre Kollegen vor Gericht stellen. Rechtliche Standards waren nie der Maßstab, weshalb diese Gerichtsverfahren als die demokratischsten und effektivsten Verurteilungssysteme gelten. Wir machen Fehler, aber im Laufe der Zeit sammeln wir Wissen darüber, wie man sie nicht macht, und verfeinern das System.

Compas und ähnliche Systeme stellen eine Black Box im Rechtssystem dar. Es sollte keine solchen geben. Rechtssysteme hängen von der Kontinuität, Transparenz der Informationen und der Fähigkeit zur Überprüfung ab. Die Gesellschaft will kein System, das das Rennen zum Aufbau von KI-Startups ermutigt, die schnelle, billige und exklusive Lösungen anbieten. Eine hastig gemachte KI wird schrecklich sein.

Eine aktualisierte Open Source-Version von Compas wäre eine Verbesserung. Aber zuerst müssen die Standards des Justizsystems angehoben werden, bevor wir beginnen, die Verantwortung zugunsten von Algorithmen zu verlagern.

ILYA KHEL

Empfohlen: