Warum Missverstehen Sie Die Robo-Apokalypse - Alternative Ansicht

Inhaltsverzeichnis:

Warum Missverstehen Sie Die Robo-Apokalypse - Alternative Ansicht
Warum Missverstehen Sie Die Robo-Apokalypse - Alternative Ansicht

Video: Warum Missverstehen Sie Die Robo-Apokalypse - Alternative Ansicht

Video: Warum Missverstehen Sie Die Robo-Apokalypse - Alternative Ansicht
Video: FALLOUT SHELTER APOCALYPSE PREPARATION 2024, April
Anonim

Die Angst vor künstlicher Intelligenz ist seit langem in der Populärkultur verwurzelt. Die besten Köpfe der Menschheit, von Stephen Hawking bis Elon Musk, haben über die existenzielle Bedrohung des digitalen Geistes für die Menschheit gesprochen.

Professor Stuart Russell, Professor an der University of California in Berkeley, spricht ebenfalls darüber, aber in seiner Zukunftsvision gibt es keine bösen Roboter, die gegen die menschliche Herrschaft rebellieren.

Laut Russell werden die Maschinen irgendwann einfach so effektiv, dass sie uns zerstören und die Aufgaben ausführen, die wir ihnen gegeben haben.

Russell ist Experte für maschinelles Lernen und Autor von Human Compatible: AI und das Problem der Kontrolle.

"Die traditionelle Hollywood-Geschichte ist, dass Maschinen spontan bewusst werden und dann entscheiden, dass sie Menschen hassen und jeden töten wollen", bemerkt Professor Russell.

Aber dies ist seiner Meinung nach eine falsche Vision der Robo-Apokalypse, weil Maschinen keine menschlichen Emotionen haben.

„Wir müssen uns nicht um das Selbstbewusstsein böser Maschinen sorgen, sondern um die Kompetenz der Maschinen, die unsere zugewiesenen Aufgaben ausführen“, ist der Wissenschaftler überzeugt.

Werbevideo:

Zu kompetent

In einem Interview mit BBC Today beschrieb Professor Russell eine hypothetische Situation, in der die Existenz der Menschheit durch künstliche Intelligenz bedroht sein könnte.

Stellen Sie sich vor, es gibt eine supermächtige künstliche Intelligenz, die das Klima auf dem Planeten kontrollieren kann. Er hat die Aufgabe, den Kohlendioxidgehalt in der Atmosphäre wieder auf das vorindustrielle Niveau zu bringen.

Image
Image

„Das System wird der Ansicht sein, dass der effektivste Weg, dies zu tun, darin besteht, Menschen zu zerstören. Sie produzieren Kohlendioxid “, sagt der Professor.

„Dies kann zum Beispiel umgangen werden, indem man sie zu einer Bedingung macht, Menschen nicht loszuwerden. Was wird das System dann tun? Sie wird dafür sorgen, dass immer weniger Kinder geboren werden, bis die Menschen vollständig verschwunden sind."

Dies ist ein Beispiel dafür, wozu künstliche Intelligenz unter schlecht konzipierten menschlichen Anweisungen führen kann.

Superintelligenz

KI-Systeme, die heute existieren, haben eng zielgerichtete Anwendungen. Sie sollen klar definierte Probleme in einem Bereich lösen, sagen Wissenschaftler des Zentrums für die Untersuchung existenzieller Risiken an der Universität Cambridge.

Der triumphale Moment für diese KI-Philosophie war der Sieg des Deep Blue-Computers über den amtierenden Schachweltmeister Garry Kasparov im Jahr 1997.

* Deep Blaus Sieg über Kasparov im Jahr 1997 war ein KI-Triumph
* Deep Blaus Sieg über Kasparov im Jahr 1997 war ein KI-Triumph

* Deep Blaus Sieg über Kasparov im Jahr 1997 war ein KI-Triumph.

Deep Blue wurde jedoch exklusiv für das Schachspiel entwickelt. Bei Dame hätte er gegen einen Fünftklässler verloren.

Die jüngsten Fortschritte in der künstlichen Intelligenz haben uns sehr unterschiedliche Programme gebracht.

Zum Beispiel hat das AlphaGo Zero-Programm gelernt, Go alleine zu spielen, ohne Daten über vergangene Spiele zu verwenden, die von Menschen gespielt wurden, und in nur drei Tagen, in denen es mit sich selbst gespielt hat, erreichte es ein Niveau, das für einen normalen Menschen unerreichbar war.

Deep-Learning-Algorithmen wurden verwendet, um AlphaGo Zero zu erstellen. Dies bedeutet, dass für die Entwicklung des Programms relativ wenig menschliche Arbeit erforderlich war.

Gleichzeitig weiß AlphaGo Zero, wie man sowohl Schach als auch Shogi gut spielt.

Denken Sie daran, dass das Programm vollständig selbstlernend ist. Dies kann bei einigen Anlass zur Sorge geben.

"Wenn die KI leistungsfähiger und vielseitiger wird, besteht das Risiko, dass sie superintelligent wird, dh in vielen oder allen Bereichen den Menschen übertrifft", sagt das Zentrum für die Untersuchung existenzieller Risiken.

Wir wissen nicht was wir wollen

Professor Russell glaubt, dass es kein Ausweg ist, der KI nur sehr spezifische Aufgaben zu geben, da die Menschen selbst nicht in der Lage sind, sie gut genug zu formulieren.

Image
Image

"Wir merken erst, dass wir etwas nicht mögen, wenn es passiert", sagt er.

„Wir müssen den grundlegenden Ansatz zur Erstellung von KI-Systemen ändern“, fügt der Professor hinzu. Er glaubt, dass es grundsätzlich falsch ist, Robotern eine Aufgabe zu geben, die sie dann ausführen.

„Das System muss verstehen, dass das Ziel nicht klar ist. er sagt. - Wenn solche Systeme erstellt werden, hängen sie wirklich von der Person ab. Sie fragen nach Erlaubnis, bevor sie etwas tun, weil sie nicht sicher sind, ob Sie wollen."

Vor allem, sagt der Professor, werden sie nicht widerstehen, wenn Sie sie ausschalten, weil sie so konzipiert sind, dass sie nicht das tun, was Sie nicht mögen.

Aladdins Lampe

KI ist heute so geschaffen, als wäre es ein Geist aus einer Lampe, sagt Professor Russell. Sie reiben die Lampe und sagen: "Ich möchte, dass dies und das passiert."

In Stanley Kubricks 2001 * A Space Odyssey * lehnt sich ein superintelligenter Computer gegen Menschen auf, die beschließen, ihn herunterzufahren
In Stanley Kubricks 2001 * A Space Odyssey * lehnt sich ein superintelligenter Computer gegen Menschen auf, die beschließen, ihn herunterzufahren

In Stanley Kubricks 2001 * A Space Odyssey * lehnt sich ein superintelligenter Computer gegen Menschen auf, die beschließen, ihn herunterzufahren.

Und wenn künstliche Intelligenz stark genug ist, wird sie genau das tun, was Sie verlangen.

"Das Problem mit Gin ist, dass der dritte Wunsch immer darin besteht, die ersten beiden abzusagen, weil die Person sie falsch formuliert hat."

"Eine Maschine, die das falsche Ziel verfolgt, wird de facto zum Feind der Menschheit, und dieser Feind ist viel stärker als wir", schließt der Wissenschaftler.

Empfohlen: