Künstliche Intelligenz: Ein Zweischneidiges Schwert? - Alternative Ansicht

Künstliche Intelligenz: Ein Zweischneidiges Schwert? - Alternative Ansicht
Künstliche Intelligenz: Ein Zweischneidiges Schwert? - Alternative Ansicht

Video: Künstliche Intelligenz: Ein Zweischneidiges Schwert? - Alternative Ansicht

Video: Künstliche Intelligenz: Ein Zweischneidiges Schwert? - Alternative Ansicht
Video: Künstliche Intelligenz - ein zweischneidiges Schwert 2024, Kann
Anonim

Wir sagen, Roboter werden aufsteigen. Das wird die Welt übernehmen, die Kontrolle über alles übernehmen. Wir haben diese Warnungen seit Jahrzehnten gehört, und heute, zu Beginn des 21. Jahrhunderts, wächst die Zahl dieser Warnungen nur noch. Es gibt eine wachsende Angst vor künstlicher Intelligenz, die unsere Spezies beenden wird.

Solche Drehbücher werden nicht nur in Hollywood aufgegriffen, sondern finden auch zunehmend Anhänger im wissenschaftlichen und philosophischen Bereich. Zum Beispiel schrieb Ray Kurzweil, dass das exponentielle Wachstum der künstlichen Intelligenz zu einer technologischen Singularität führen wird, dem Punkt, an dem die maschinelle Intelligenz die menschliche Intelligenz übertreffen wird. Einige sehen dies als das Ende der Welt, andere sehen nur Chancen. Nick Bostrom glaubt, dass Superintelligenz uns helfen würde, mit Krankheiten, Armut und Umweltzerstörung umzugehen und uns selbst zu verbessern.

Am Dienstag schloss sich der berühmte Wissenschaftler Stephen Hawking den Reihen der Singularitätspropheten an, genauer gesagt ihrer pessimistischen Gruppe, als er der BBC sagte, dass "die Entwicklung einer vollwertigen künstlichen Intelligenz das Ende der Menschheit bedeuten könnte". Er glaubt, dass Menschen nicht in der Lage sein werden, mit KI zu konkurrieren, die sich selbst neu programmieren und ein Niveau erreichen kann, das dem Menschen weit überlegen ist. Hawking glaubt jedoch auch, dass wir überhaupt nicht versuchen sollten, Aliens zu kontaktieren, da sie nur ein Ziel haben werden: uns zu unterwerfen oder uns vollständig zu zerstören.

Das Problem bei diesen Szenarien ist nicht, dass sie unvermeidlich falsch sind - wer kann die Zukunft vorhersagen? - oder nicht glauben, Science-Fiction-Skripte. Letzteres ist unvermeidlich, wenn Sie moderne Technologien und ihre Auswirkungen auf uns in Zukunft verstehen und bewerten möchten. Es ist wichtig, unsere philosophischen Fragen in solchen Szenarien auf den Tisch zu legen und unsere Ängste zu untersuchen, um herauszufinden, was für uns am wichtigsten ist.

Das Problem, sich ausschließlich auf künstliche Intelligenz im Kontext des „Weltuntergangs“und anderer tödlicher Szenarien zu konzentrieren, besteht darin, dass sie uns von anderen, dringlicheren und wichtigeren ethischen und sozialen Fragen ablenkt, die im Zusammenhang mit technologischen Entwicklungen in diesen Bereichen auftreten. Gibt es zum Beispiel einen Platz für Privatsphäre in der Welt der Informations- und Kommunikationstechnologien? Bedrohen Google, Facebook und Apple die Freiheit in der Technologiewelt? Wird eine weitere Automatisierung zum Verlust von Arbeitsplätzen führen? Können neue Finanztechnologien die Weltwirtschaft bedrohen? Wie wirken sich mobile Geräte auf die Umwelt aus? (Zu Hawkings Gunsten erwähnte er die Privatsphäre in Interviews, sprach dann aber immer noch vom Ende des menschlichen Zeitalters.)

Diese Fragen sind weit weniger attraktiv als Superintelligenz oder das Ende der Menschheit. Sie werfen auch keine Fragen zu Intelligenz oder Robotern auf. Es geht darum, welche Art von Gesellschaft wir brauchen und wie wir unser Leben sehen wollen.

Diese Fragen sind uralt, sie sind aus dem Erscheinen von Wissenschaft und Philosophie hervorgegangen, und die wachsenden Informationstechnologien von heute, die unsere Welt verändern, lassen uns wieder über sie nachdenken. Hoffen wir, dass die besten menschlichen Köpfe unserer Zeit den größten Teil ihrer Energie darauf konzentrieren, Antworten auf die richtigen Fragen zu finden, und nicht auf Demagogie in Bezug auf übertriebene Bedrohungen.

Ilya Khel

Werbevideo:

Empfohlen: