"Wir Müssen Jetzt Darüber Nachdenken, Wie Künstliche Intelligenz Gesichert Werden Kann" - Alternative Ansicht

"Wir Müssen Jetzt Darüber Nachdenken, Wie Künstliche Intelligenz Gesichert Werden Kann" - Alternative Ansicht
"Wir Müssen Jetzt Darüber Nachdenken, Wie Künstliche Intelligenz Gesichert Werden Kann" - Alternative Ansicht

Video: "Wir Müssen Jetzt Darüber Nachdenken, Wie Künstliche Intelligenz Gesichert Werden Kann" - Alternative Ansicht

Video:
Video: Gebärdensprachvideo: Bundeskanzlerin Merkel sieht Licht am Ende des Tunnels 2024, September
Anonim

Stephen Hawking setzt den "Kreuzzug" gegen künstliche Intelligenz (KI) fort.

Während der mit Spannung erwarteten Kampagne "Ask Me Everything on Reddit" schrieb er, dass die Arbeit an der Entwicklung eines KI-Sicherheitsprotokolls jetzt und nicht in ferner Zukunft erfolgen sollte.

"Unser Ziel sollte nicht sein, abstrakte künstliche Intelligenz zu schaffen, sondern nützliche Intelligenz", schrieb der berühmte Physiker. fortgeschrittene KI “.

Hawking nutzt den Ruhm zur Unterstützung der KI-Sicherheitsbewegung seit 2014, als er gemeinsam mit anderen Forschern ein Editorial verfasste, in dem er vor der existenziellen Bedrohung warnte, die fortschrittliche Maschinen für die Menschheit darstellen.

Andere bemerkenswerte Tech-Persönlichkeiten, Elon Musk und Steve Wozniak, haben sich Hawking angeschlossen. Zuvor hatten alle drei einen offenen Brief unterschrieben, in dem ein Verbot autonomer Waffen oder Kampfroboter gefordert wurde.

Die Erwartung, dass die Menschheit bald künstliche Intelligenz schaffen wird, besteht seit den 50er Jahren und hat sich noch nicht gerechtfertigt. Die meisten KI-Wissenschaftler glauben jedoch, dass in diesem Jahrhundert Maschinen auftauchen werden, deren Intelligenz der des Menschen entspricht.

Image
Image

Foto: ANDREW COWIE / AFP

Werbevideo:

Hawking warnt davor, dass die Darstellung künstlicher Intelligenz in Science-Fiction-Filmen die reale Gefahr von Maschinen verzerrt. Filme wie The Terminator zeigen dämonische Killerroboter, die versuchen, die Menschheit aus Gründen zu zerstören, die echte künstliche Intelligenz nicht hatte. Sie erleichtern auch die Minderung des potenziellen KI-Risikos (z. B. das Bauen von Cyborgs).

„Die wirkliche Bedrohung durch KI besteht nicht darin, dass es böse ist, sondern dass es sehr fähig ist. Künstliche Superintelligenz ist sehr gut darin, ihre Aufgaben zu erfüllen.

Wenn seine Aufgaben nicht mit unseren übereinstimmen, werden wir Probleme haben - schrieb Hawking - Sie hassen Ameisen kaum, aber wenn Sie für ein grünes Energieprojekt verantwortlich sind und das Gebiet, in dem sich der Ameisenhaufen befindet, überflutet werden muss, haben die Ameisen kein Glück. Lassen wir nicht zu, dass sich die Menschheit in der Position dieser Ameisen befindet."

Nick Bostrom, ein KI-Philosoph, fantasiert von Szenarien am Ende der Welt, wenn ein Programm in die falsche Richtung arbeitet. Künstliche Intelligenz hat beispielsweise die Aufgabe, einen Plan zum Schutz der Umwelt zu entwickeln, und um das Problem der Ökologie zu lösen, beschließt sie, die Menschheit zu zerstören.

Elon Musk hat bereits 10 Millionen US-Dollar für die KI-Sicherheitsforschung bereitgestellt, um zu verhindern, dass zerstörerische künstliche Intelligenz wie Skynet in Terminator erscheint. Aber Hawking möchte, dass die Menschen ihre allgemeine Wahrnehmung der KI ändern.

"Bitte sagen Sie Ihren Schülern, dass sie nicht nur darüber nachdenken sollen, wie KI erstellt werden soll, sondern auch, wie sichergestellt werden kann, dass sie für nützliche Zwecke verwendet wird", sagte Hawking dem Lehrer, der Vorlesungen über künstliche Intelligenz hält entweder das beste oder das schlechteste Ereignis in der Geschichte der Menschheit. Deshalb ist es wichtig, dass alles so läuft, wie es sollte."

Empfohlen: