Google Möchte Eines Tages Kein Skynet Erstellen, Daher Wird Ein Switch Für AI - Alternative Ansicht

Google Möchte Eines Tages Kein Skynet Erstellen, Daher Wird Ein Switch Für AI - Alternative Ansicht
Google Möchte Eines Tages Kein Skynet Erstellen, Daher Wird Ein Switch Für AI - Alternative Ansicht

Video: Google Möchte Eines Tages Kein Skynet Erstellen, Daher Wird Ein Switch Für AI - Alternative Ansicht

Video: Google Möchte Eines Tages Kein Skynet Erstellen, Daher Wird Ein Switch Für AI - Alternative Ansicht
Video: Passwortkarten und wie man sie mit Python erzeugen kann | #Cybersicherheit 2024, Juli
Anonim

Bei Fragen und Diskussionen über die Zukunft der künstlichen Intelligenz gibt es zwei gegensätzliche Seiten. In einer Ecke investieren Unternehmen wie Google, Facebook, Amazon und Microsoft aggressiv in Technologie, um KI-Systeme intelligenter zu machen, in der anderen sind es die großen Denker unserer Zeit wie Elon Musk und Stephen Hawking, die glauben dass die Entwicklung der KI einem "Dämonenzauber" ähnelt.

Eines der fortschrittlichsten KI-Unternehmen, DeepMind, im Besitz von Google, hat Sicherheitsmaßnahmen für den Fall geschaffen, dass eine Person "die Kontrolle über einen Roboter übernehmen muss, dessen Ausfall zu irreparablen Folgen führen kann". Wir können davon ausgehen, dass wir über … "alle Menschen töten" sprechen. In Wirklichkeit ist die getroffene Maßnahme natürlich kein Hinweis auf eine mögliche Apokalypse, sondern es handelt sich vielmehr um Sicherheitsmaßnahmen für intelligente Roboter, die in verschiedenen Fabriken und Werken funktionieren und in Zukunft funktionieren werden.

Das veröffentlichte Dokument mit Rezepten ist eine gemeinsame Arbeit von DeepMind und dem Oxford Institute for the Future of Humanity, die sich, wie der Name schon sagt, mit Themen befasst, die es dieser Menschheit ermöglichen, in die Zukunft zu gelangen. Der Gründungsdirektor des Instituts, Nick Bostrom, sprach jahrzehntelang sehr lebhaft über die möglichen Gefahren der Entwicklung künstlicher Intelligenz und schrieb mehr als ein Buch zu diesem Thema, in dem er die Konsequenzen der Schaffung superintelligenter Roboter diskutierte.

Der Leitfaden, über den wir heute sprechen und der als "Sicher behinderte Agenten" bezeichnet wird, untersucht, wie KI deaktiviert werden kann, wenn Dinge ausgeführt werden, die der menschliche Bediener nicht tun möchte. Die Arbeit besteht aus verschiedenen Berechnungen und Formeln, die 99 Prozent von uns höchstwahrscheinlich nicht verstehen werden. Um es einfach auszudrücken, sprechen wir daher von einem "roten Knopf", der die KI deaktivieren kann.

Sie mögen lachen und sich wundern, aber die Pioniere der Robotik und KI schauen sich dieselben Science-Fiction-Filme an wie wir. Diejenigen, in denen Roboter einmal herausgefunden haben, wie man den Befehl zum Herunterfahren ignoriert. Jetzt sind wir also bereit dafür. Das veröffentlichte Dokument beschreibt Methoden und Lösungen, um sicherzustellen, dass der "trainierbare Agent" (Read AI) nicht lernen kann, die Auswirkungen der externen Umgebung oder des menschlichen Bedieners zu ignorieren oder zu verhindern.

Dies mag wie ein Overkill erscheinen, besonders wenn man bedenkt, dass die derzeit am weitesten fortgeschrittene KI wirklich nur bei Brettspielen gut ist. Bostrom ist jedoch der Ansicht, dass geeignete Maßnahmen ergriffen werden müssen, bevor wir mit der Erstellung einer KI auf der Ebene des menschlichen Gehirns beginnen:

„Sobald künstliche Intelligenz das menschliche Niveau erreicht, wird in vielen Bereichen ein starker Entwicklungssprung erwartet. Außerdem werden die AIs selbst bald darauf neue AIs erstellen. Bewerten Sie einfach diese Aussichten und gleichzeitig die möglichen Gefahren. Deshalb ist es besser, es zu übertreiben, als es zu verpassen."

NIKOLAY KHIZHNYAK

Werbevideo:

Empfohlen: