Künstliche Intelligenz. Teil Zwei: Aussterben Oder Unsterblichkeit? - Alternative Ansicht

Inhaltsverzeichnis:

Künstliche Intelligenz. Teil Zwei: Aussterben Oder Unsterblichkeit? - Alternative Ansicht
Künstliche Intelligenz. Teil Zwei: Aussterben Oder Unsterblichkeit? - Alternative Ansicht

Video: Künstliche Intelligenz. Teil Zwei: Aussterben Oder Unsterblichkeit? - Alternative Ansicht

Video: Künstliche Intelligenz. Teil Zwei: Aussterben Oder Unsterblichkeit? - Alternative Ansicht
Video: Buchbesprechung: Künstliche Intelligenz von Ray Kurzweil - Teil 2/2 2024, September
Anonim

Bevor Sie den zweiten Teil eines Artikels aus der Reihe "Warten Sie, wie das alles real sein kann, warum wird immer noch nicht an jeder Ecke darüber gesprochen." In der vorherigen Serie wurde bekannt, dass sich allmählich eine Explosion der Intelligenz auf die Menschen auf dem Planeten Erde ausbreitet. Sie versucht, sich von einer eng fokussierten zu einer universellen Intelligenz und schließlich zu künstlicher Superintelligenz zu entwickeln.

"Vielleicht stehen wir vor einem äußerst schwierigen Problem, und es ist nicht bekannt, wie viel Zeit für seine Lösung zur Verfügung steht, aber die Zukunft der Menschheit kann von ihrer Lösung abhängen." - Nick Bostrom.

Der erste Teil des Artikels begann harmlos genug. Wir haben eng fokussierte künstliche Intelligenz (KI, die sich auf die Lösung eines bestimmten Problems wie das Bestimmen von Routen oder das Schachspielen spezialisiert hat) diskutiert. In unserer Welt gibt es viel davon. Dann analysierten sie, warum es so schwierig ist, allgemeine gerichtete künstliche Intelligenz (AGI oder AI, die in Bezug auf intellektuelle Fähigkeiten mit einem Menschen bei der Lösung eines Problems vergleichbar ist) zu entwickeln, so schwierig ist. Wir kamen zu dem Schluss, dass das exponentielle Tempo des technologischen Fortschritts darauf hindeutet, dass AGI bald vor der Tür steht. Am Ende haben wir beschlossen, dass, sobald Maschinen die menschliche Intelligenz erreichen, Folgendes passieren kann:

Image
Image
Image
Image
Image
Image
Image
Image

Wie üblich schauen wir auf den Bildschirm und glauben nicht, dass künstliche Superintelligenz (ISI, die viel schlauer ist als jede andere Person) zu Lebzeiten auftreten kann, und wählen Emotionen aus, die unsere Meinung zu diesem Thema am besten widerspiegeln.

Werbevideo:

Bevor wir uns mit den Besonderheiten von ISI befassen, möchten wir uns daran erinnern, was es bedeutet, dass eine Maschine superintelligent ist.

Der Hauptunterschied liegt zwischen schneller Superintelligenz und Qualitäts-Superintelligenz. Wenn man an einen superintelligenten Computer denkt, fällt einem oft als erstes ein, dass er viel schneller denken kann als eine Person - millionenfach schneller, und in fünf Minuten wird er verstehen, was eine Person zehn Jahre brauchen würde. ("Ich kenne Kung Fu!")

Es klingt beeindruckend und ISI sollte wirklich schneller denken als jeder andere - aber das Hauptunterscheidungsmerkmal wird die Qualität seines Intellekts sein, was ein ganz anderes ist. Menschen sind viel schlauer als Affen, nicht weil sie schneller denken, sondern weil ihr Gehirn eine Reihe genialer kognitiver Module enthält, die komplexe sprachliche Darstellungen, langfristige Planung und abstraktes Denken ausführen, zu denen Affen nicht in der Lage sind. Wenn Sie das Gehirn eines Affen tausendmal beschleunigen, wird es nicht schlauer als wir - selbst nach zehn Jahren kann es keinen Konstruktor gemäß den Anweisungen zusammenbauen, was eine Person maximal ein paar Stunden dauern würde. Es gibt Dinge, die ein Affe niemals lernen wird, egal wie viele Stunden er verbringt oder wie schnell sein Gehirn arbeitet.

Außerdem weiß ein Affe nicht, wie menschlich er ist, weil sein Gehirn einfach nicht in der Lage ist, die Existenz anderer Welten zu erkennen - ein Affe weiß vielleicht, was eine Person ist und was ein Wolkenkratzer ist, wird aber nie verstehen, dass ein Wolkenkratzer von Menschen gebaut wurde. In ihrer Welt gehört alles zur Natur, und der Makaken kann nicht nur keinen Wolkenkratzer bauen, sondern auch verstehen, dass jeder ihn bauen kann. Und dies ist das Ergebnis eines kleinen Unterschieds in der Qualität der Intelligenz.

In dem allgemeinen Schema der Intelligenz, von dem wir sprechen, oder einfach nach den Maßstäben biologischer Wesen, ist der Unterschied in der Qualität der Intelligenz zwischen Menschen und Affen winzig. Im vorherigen Artikel haben wir biologische kognitive Fähigkeiten auf eine Leiter gestellt:

Image
Image

Um zu verstehen, wie ernst eine superintelligente Maschine sein wird, platzieren Sie sie zwei Kerben höher als die Person auf dieser Leiter. Diese Maschine mag ein wenig superintelligent sein, aber ihre Überlegenheit gegenüber unseren kognitiven Fähigkeiten wird dieselbe sein wie unsere - gegenüber den Affen. Und so wie ein Schimpanse niemals verstehen wird, dass ein Wolkenkratzer gebaut werden kann, werden wir vielleicht nie verstehen, was eine Maschine ein paar Schritte höher verstehen wird, selbst wenn die Maschine versucht, es uns zu erklären. Dies ist jedoch nur ein paar Schritte. Eine intelligentere Maschine wird Ameisen in uns sehen - sie wird uns jahrelang die einfachsten Dinge aus ihrer Position lehren, und diese Versuche werden völlig hoffnungslos sein.

Die Art der Superintelligenz, über die wir heute sprechen werden, liegt weit jenseits dieser Leiter. Dies ist eine Explosion von Intelligenz - je intelligenter ein Auto wird, desto schneller kann es seine eigene Intelligenz steigern und die Dynamik allmählich steigern. Es kann Jahre dauern, bis eine Maschine wie diese Schimpansen in ihrer Intelligenz übertrifft, aber vielleicht ein paar Stunden, um uns um ein paar Schritte zu übertreffen. Ab diesem Moment kann das Auto bereits jede Sekunde über vier Stufen springen. Deshalb sollten wir verstehen, dass wir sehr bald nach dem Erscheinen der ersten Nachricht, dass die Maschine das Niveau der menschlichen Intelligenz erreicht hat, der Realität des Zusammenlebens auf der Erde mit etwas begegnen können, das auf dieser Leiter viel höher sein wird als wir (oder vielleicht auch) und millionenfach höher):

Image
Image

Und da wir festgestellt haben, dass es völlig nutzlos ist, zu versuchen, die Leistung einer Maschine zu verstehen, die nur zwei Schritte über uns liegt, definieren wir ein für alle Mal, dass es keine Möglichkeit gibt, zu verstehen, was das ISI tun wird und welche Konsequenzen dies für uns haben wird. Wer das Gegenteil behauptet, versteht einfach nicht, was Superintelligenz bedeutet.

Die Evolution hat das biologische Gehirn über Hunderte von Millionen von Jahren langsam und allmählich weiterentwickelt, und wenn Menschen eine superintelligente Maschine erschaffen, werden wir in gewissem Sinne die Evolution transzendieren. Oder es wird Teil der Evolution sein - vielleicht funktioniert die Evolution so, dass sich die Intelligenz allmählich entwickelt, bis sie einen Wendepunkt erreicht, der eine neue Zukunft für alle Lebewesen ankündigt:

Image
Image

Aus Gründen, die wir später diskutieren werden, glaubt ein großer Teil der wissenschaftlichen Gemeinschaft, dass die Frage nicht ist, ob wir an diesen Wendepunkt gelangen, sondern wann.

Wo landen wir danach?

Ich denke, niemand auf dieser Welt, weder ich noch Sie, werden sagen können, was passieren wird, wenn wir den Wendepunkt erreichen. Der Oxford-Philosoph und führende KI-Theoretiker Nick Bostrom glaubt, dass wir alle möglichen Ergebnisse in zwei große Kategorien einteilen können.

Wenn wir uns die Geschichte ansehen, wissen wir zunächst Folgendes über das Leben: Arten erscheinen, existieren für eine bestimmte Zeit und fallen dann unweigerlich aus dem Gleichgewicht des Lebens und sterben aus.

Image
Image

"Alle Arten sterben aus" war in der Geschichte eine ebenso verlässliche Regel wie "alle Menschen sterben eines Tages". 99,9% der Arten sind aus einem Baumstamm gefallen, und es ist klar, dass, wenn eine Art zu lange an diesem Baumstamm hängt, ein natürlicher Windstoß oder ein plötzlicher Asteroid den Baumstamm umdrehen. Bostrom nennt das Aussterben den Zustand eines Attraktors - ein Ort, an dem sich alle Arten ausbalancieren, um nicht zu fallen, wo keine Art zurückgekehrt ist.

Und obwohl die meisten Wissenschaftler zugeben, dass ISI die Fähigkeit haben wird, Menschen zum Aussterben zu verurteilen, glauben viele auch, dass die Nutzung der Fähigkeiten von ISI es Einzelpersonen (und der Spezies insgesamt) ermöglicht, den zweiten Zustand des Attraktors zu erreichen - die Unsterblichkeit der Spezies. Bostrom glaubt, dass die Unsterblichkeit einer Spezies ebenso ein Anziehungspunkt ist wie das Aussterben einer Spezies, das heißt, wenn wir dazu kommen, werden wir zur ewigen Existenz verurteilt sein. Selbst wenn alle Arten bis heute von diesem Stock in den Strudel des Aussterbens fielen, glaubt Bostrom, dass der Baumstamm zwei Seiten hat, und es gab einfach keine solche Intelligenz auf der Erde, die verstehen würde, wie man auf die andere Seite fällt.

Image
Image

Wenn Bostrom und andere Recht haben und nach allen uns zur Verfügung stehenden Informationen zu urteilen, müssen wir zwei sehr schockierende Tatsachen akzeptieren:

1. Das erstmalige Auftreten von ISI in der Geschichte eröffnet einer Art die Möglichkeit, Unsterblichkeit zu erlangen und aus dem tödlichen Zyklus des Aussterbens auszusteigen.

2. Das Aufkommen von ISI wird einen so unvorstellbar großen Einfluss haben, dass es höchstwahrscheinlich die Menschheit von diesem Strahl in die eine oder andere Richtung drängen wird.

Es ist möglich, dass die Evolution, wenn sie einen solchen Wendepunkt erreicht, die Beziehung der Menschen zum Strom des Lebens immer beendet und eine neue Welt mit oder ohne Menschen schafft.

Dies wirft eine interessante Frage auf, die nur ein Mist nicht stellen würde: Wann kommen wir zu diesem Wendepunkt und wohin bringt es uns? Niemand auf der Welt kennt die Antwort auf diese doppelte Frage, aber viele kluge Leute haben jahrzehntelang versucht, es herauszufinden. Für den Rest des Artikels werden wir herausfinden, woher sie kamen.

* * *

Beginnen wir mit dem ersten Teil dieser Frage: Wann sollten wir den Wendepunkt erreichen? Mit anderen Worten: Wie viel Zeit bleibt noch, bis die erste Maschine die Superintelligenz erreicht?

Die Meinungen variieren von Fall zu Fall. Viele, darunter Professor Vernor Vinge, der Wissenschaftler Ben Herzel, der Mitbegründer von Sun Microsystems, Bill Joy, der Futurist Ray Kurzweil, stimmten dem Experten für maschinelles Lernen Jeremy Howard zu, als er auf der TED Talk die folgende Grafik vorstellte:

Image
Image

Diese Menschen teilen die Ansicht, dass ISI bald kommt - dieses exponentielle Wachstum, das uns heute langsam erscheint, wird in den nächsten Jahrzehnten buchstäblich explodieren.

Andere, wie Microsoft-Mitbegründer Paul Allen, der Forschungspsychologe Gary Marcus, der Computerexperte Ernest Davis und der Technologieunternehmer Mitch Kapor, glauben, dass Denker wie Kurzweil das Ausmaß des Problems ernsthaft unterschätzen und der Meinung sind, dass wir dem Wendepunkt nicht annähernd so nahe sind.

Kurzweils Lager argumentiert, dass die einzige Unterschätzung darin besteht, das exponentielle Wachstum zu ignorieren, und die Zweifler können mit denen verglichen werden, die 1985 das langsam boomende Internet betrachteten und argumentierten, dass es in naher Zukunft keine Auswirkungen auf die Welt haben würde.

Zweifler können abwehren, dass es für den Fortschritt schwieriger ist, jeden weiteren Schritt zu unternehmen, wenn es um die exponentielle Entwicklung von Intelligenz geht, die die typische exponentielle Natur des technologischen Fortschritts neutralisiert. Usw.

Das dritte Lager, in dem sich Nick Bostrom befindet, widerspricht entweder dem ersten oder dem zweiten und argumentiert, dass a) all dies in naher Zukunft absolut passieren kann; und b) es gibt keine Garantie dafür, dass dies überhaupt geschieht oder dass es länger dauert.

Andere, wie der Philosoph Hubert Dreyfus, glauben, dass alle drei Gruppen naiv glauben, dass es überhaupt einen Wendepunkt geben wird und dass wir höchstwahrscheinlich nie zum ISI gelangen werden.

Was passiert, wenn wir all diese Meinungen zusammenfassen?

Im Jahr 2013 führte Bostrom eine Umfrage durch, in der er Hunderte von Experten auf dem Gebiet der künstlichen Intelligenz während einer Reihe von Konferenzen zum folgenden Thema interviewte: "Wie werden Ihre Vorhersagen für die Erreichung der AGI auf menschlicher Ebene aussehen?" und bat uns, ein optimistisches Jahr (in dem wir AGI mit einer Wahrscheinlichkeit von 10 Prozent haben werden), eine realistische Annahme (ein Jahr, in dem wir AGI mit einer Wahrscheinlichkeit von 50 Prozent haben werden) und eine zuversichtliche Annahme (das früheste Jahr, in dem AGI seit 90 erscheinen wird) zu nennen prozentuale Wahrscheinlichkeit). Hier sind die Ergebnisse:

- Durchschnittliches optimistisches Jahr (10%): 2022

- Durchschnittliches realistisches Jahr (50%): 2040

- Durchschnittliches pessimistisches Jahr (90%): 2075

Die durchschnittlichen Befragten glauben, dass wir in 25 Jahren eher eine AGI haben werden als nicht. Eine 90-prozentige Wahrscheinlichkeit, dass AGI bis 2075 auftritt, bedeutet, dass wenn Sie jetzt noch recht jung sind, dies höchstwahrscheinlich in Ihrem Leben passieren wird.

Eine separate Studie, die kürzlich von James Barratt (dem Autor des gefeierten und sehr guten Buches Our Latest Invention, Auszüge, auf die ich die Leser von Hi-News.ru aufmerksam gemacht habe) und Ben Hertzel auf der AGI-Konferenz, einer jährlichen AGI-Konferenz, durchgeführt wurde, zeigte einfach die Meinungen der Menschen relativ zum Jahr kommen wir zu AGI: 2030, 2050, 2100, später oder nie. Hier sind die Ergebnisse:

- Bis 2030: 42% der Befragten

- Bis 2050: 25%

- Bis 2100: 20%

- Nach 2100: 10%

- Niemals: 2%

Ähnlich wie bei Bostrom. In Barratts Umfrage glauben mehr als zwei Drittel der Befragten, dass AGI bis 2050 hier sein wird, und weniger als die Hälfte glaubt, dass AGI in den nächsten 15 Jahren erscheinen wird. Auffällig ist auch, dass im Prinzip nur 2% der Befragten AGI in unserer Zukunft nicht sehen.

Aber AGI ist kein Wendepunkt wie ISI. Wann werden wir laut Experten ISI haben?

Bostrom fragte die Experten, wann wir ASI erreichen werden: a) zwei Jahre nach Erreichen von AGI (dh fast augenblicklich aufgrund einer Explosion von Intelligenz); b) nach 30 Jahren. Ergebnisse?

Die durchschnittliche Meinung ist, dass der rasche Übergang von AGI zu ISI mit einer Wahrscheinlichkeit von 10% erfolgen wird, in 30 Jahren oder weniger jedoch mit einer Wahrscheinlichkeit von 75%.

Aus diesen Daten wissen wir nicht, wann die Befragten eine 50-prozentige Chance auf einen ASI nennen würden, aber basierend auf den beiden obigen Antworten nehmen wir an, dass es 20 Jahre sind. Das heißt, die weltweit führenden KI-Experten glauben, dass der Wendepunkt im Jahr 2060 kommen wird (AGI wird im Jahr 2040 erscheinen + es wird 20 Jahre dauern, bis der Übergang von AGI zu ISI erfolgt).

Image
Image

Natürlich sind alle oben genannten Statistiken spekulativ und geben nur die Meinung von Experten auf dem Gebiet der künstlichen Intelligenz wieder, aber sie zeigen auch, dass die meisten Betroffenen der Meinung sind, dass die KI bis 2060 voraussichtlich eintreffen wird. In nur 45 Jahren.

Fahren wir mit der zweiten Frage fort. Wenn wir den Wendepunkt erreichen, welche Seite der tödlichen Entscheidung wird uns bestimmen?

Superintelligenz wird die mächtigste Macht haben, und die kritische Frage für uns wird die folgende sein:

Wer oder was wird diese Kraft kontrollieren und was wird ihre Motivation sein?

Die Antwort auf diese Frage hängt davon ab, ob das ISI eine unglaublich mächtige Entwicklung, eine unermesslich erschreckende Entwicklung oder etwas dazwischen bekommt.

Natürlich versucht auch die Expertengemeinschaft, diese Fragen zu beantworten. In der Umfrage von Bostrom wurde die Wahrscheinlichkeit möglicher Folgen der Auswirkungen von AGI auf die Menschheit analysiert. Es stellte sich heraus, dass mit einer Wahrscheinlichkeit von 52 Prozent alles sehr gut und mit einer Wahrscheinlichkeit von 31 Prozent entweder schlecht oder extrem schlecht läuft. Die Umfrage am Ende des vorherigen Teils dieses Themas, die unter Ihnen, liebe Leser von Hi-News, durchgeführt wurde, ergab ungefähr die gleichen Ergebnisse. Für ein relativ neutrales Ergebnis betrug die Wahrscheinlichkeit nur 17%. Mit anderen Worten, wir alle glauben, dass AGI eine große Sache sein wird. Es ist auch erwähnenswert, dass diese Umfrage die Entstehung von AGI betrifft - im Fall von ISI wird der Prozentsatz der Neutralität geringer sein.

Bevor wir uns eingehender mit den guten und schlechten Seiten der Frage befassen, kombinieren wir beide Seiten der Frage: "Wann wird dies geschehen?" und "ist das gut oder schlecht?" in eine Tabelle, die die Ansichten der meisten Experten abdeckt.

Image
Image

Wir werden gleich über das Hauptlager sprechen, aber entscheiden Sie sich zuerst für Ihre Position. Höchstwahrscheinlich befinden Sie sich an derselben Stelle, an der ich mich befand, bevor ich mit der Arbeit an diesem Thema begann. Es gibt mehrere Gründe, warum Menschen überhaupt nicht über dieses Thema nachdenken:

- Wie im ersten Teil erwähnt, haben die Filme Menschen und Fakten ernsthaft verwirrt und unrealistische Szenarien mit künstlicher Intelligenz dargestellt, was dazu führte, dass wir KI überhaupt nicht ernst nehmen sollten. James Barratt verglich diese Situation mit der von den Centers for Disease Control (CDC) herausgegebenen Situation mit einer ernsthaften Warnung vor Vampiren in unserer Zukunft.

- Aufgrund der sogenannten kognitiven Vorurteile fällt es uns sehr schwer zu glauben, dass etwas real ist, bis wir Beweise haben. Man kann sich sicher vorstellen, dass die Informatiker von 1988 regelmäßig über die weitreichenden Folgen des Internets und dessen mögliche Folgen diskutieren, aber die Menschen glaubten kaum, dass es ihr Leben verändern würde, bis es tatsächlich geschah. Es ist nur so, dass Computer 1988 nicht wussten, wie man das macht, und die Leute schauten nur auf ihre Computer und dachten: „Wirklich? Wird das die Welt verändern? Ihre Vorstellungskraft wurde durch ihre persönlichen Erfahrungen eingeschränkt, sie wussten, was ein Computer war, und es war schwer vorstellbar, wozu ein Computer in Zukunft fähig sein würde. Das gleiche passiert jetzt mit AI. Wir haben gehört, dass es eine ernste Sache werden wirdAber da wir es noch nicht von Angesicht zu Angesicht erlebt haben und im Allgemeinen eher schwache Manifestationen der KI in unserer modernen Welt beobachten, ist es für uns ziemlich schwierig zu glauben, dass es unser Leben radikal verändern wird. Gegen diese Vorurteile sind zahlreiche Experten aus allen Lagern sowie Interessierte dagegen, unsere Aufmerksamkeit durch den Lärm des alltäglichen kollektiven Egozentrismus zu erregen.

- Auch wenn wir an all das geglaubt haben - wie oft haben Sie heute darüber nachgedacht, dass Sie den Rest der Ewigkeit im Nichts verbringen werden? Ein bisschen, stimme zu. Auch wenn diese Tatsache viel wichtiger ist als alles, was Sie Tag für Tag tun. Dies liegt daran, dass sich unser Gehirn normalerweise auf kleine, alltägliche Dinge konzentriert, egal wie wahnhaft die langfristige Situation ist, in der wir uns befinden. Es ist nur so, dass wir gemacht sind.

Eines der Ziele dieses Artikels ist es, Sie aus dem Lager mit dem Titel „Ich denke gerne über andere Dinge nach“herauszuholen und Sie in das Expertenlager zu bringen, selbst wenn Sie nur an der Kreuzung zwischen den beiden gepunkteten Linien auf dem Quadrat darüber stehen, völlig unentschlossen.

Im Laufe der Forschung wird deutlich, dass die Meinungen der meisten Menschen schnell in Richtung „Hauptlager“wandern und drei Viertel der Experten in zwei Außenlager im Hauptlager fallen.

Image
Image

Wir werden beide Lager vollständig besuchen. Beginnen wir mit Spaß.

Warum könnte die Zukunft unser größter Traum sein?

Während wir die KI-Welt erkunden, finden wir überraschend viele Menschen in unserer Komfortzone. Die Leute auf dem oberen rechten Platz sind voller Aufregung. Sie glauben, dass wir auf die gute Seite des Protokolls fallen werden, und sie glauben auch, dass wir unweigerlich dazu kommen werden. Für sie ist die Zukunft nur das Beste, von dem man nur träumen kann.

Der Punkt, der diese Menschen von anderen Denkern unterscheidet, ist nicht, dass sie auf der glücklichen Seite sein wollen - sondern dass sie sicher sind, dass sie auf uns wartet.

Dieses Vertrauen entsteht aus Kontroversen. Kritiker glauben, dass es von schillernder Aufregung herrührt, die potenzielle negative Seiten überschattet. Aber Befürworter sagen, düstere Vorhersagen seien immer naiv; Die Technologie geht weiter und wird uns immer mehr helfen als schaden.

Es steht Ihnen frei, eine dieser Meinungen zu wählen, aber lassen Sie die Skepsis beiseite und werfen Sie einen guten Blick auf die glückliche Seite des Schwebebalkens, um zu akzeptieren, dass alles, worüber Sie gelesen haben, möglicherweise bereits geschehen ist. Wenn Sie Jägern und Sammlern unsere Welt des Komforts, der Technologie und des endlosen Überflusses zeigen würden, wäre dies für sie eine magische Fiktion - und wir verhalten uns recht bescheiden und können nicht zugeben, dass uns in Zukunft dieselbe unverständliche Transformation erwartet.

Nick Bostrom beschreibt drei Wege, die ein superintelligentes KI-System einschlagen kann:

Ein Orakel, das jede genaue Frage beantworten kann, einschließlich komplexer Fragen, die Menschen nicht beantworten können - zum Beispiel "Wie kann man einen Automotor effizienter machen?" Google ist eine primitive Art von "Orakel".

Ein Geist, der jeden Befehl auf hoher Ebene ausführt - mithilfe eines molekularen Assemblers eine neue, effizientere Version eines Automotors erstellt - und auf den nächsten Befehl wartet.

Ein Souverän, der einen breiten Zugang und die Fähigkeit hat, frei in der Welt zu funktionieren, seine eigenen Entscheidungen zu treffen und den Prozess zu verbessern. Er wird eine billigere, schnellere und sicherere Art des privaten Transports erfinden als ein Auto.

Diese Fragen und Aufgaben, die uns schwierig erscheinen, werden dem superintelligenten System so erscheinen, als ob jemand darum gebeten hätte, die Situation zu verbessern, dass „mein Bleistift vom Tisch gefallen ist“, in der Sie ihn einfach aufheben und zurücklegen würden.

Eliezer Yudkowski, ein amerikanischer Experte für künstliche Intelligenz, drückte es gut aus:

„Es gibt keine schwierigen Probleme, nur Probleme, die für ein bestimmtes Maß an Intelligenz schwierig sind. Gehen Sie einen Schritt höher (in Bezug auf die Intelligenz), und einige Probleme werden plötzlich von der Kategorie "unmöglich" in das Lager "offensichtlich" übergehen. Ein Schritt höher - und sie werden alle offensichtlich."

Es gibt viele ungeduldige Wissenschaftler, Erfinder und Unternehmer, die eine Zone mit sicherem Komfort von unserem Tisch gewählt haben, aber wir brauchen nur einen Führer, um in dieser besten Welt für die Besten zu gehen.

Ray Kurzweil ist nicht eindeutig. Einige vergöttern seine Ideen, andere verachten. Einige bleiben in der Mitte - Douglas Hofstadter, der die Ideen von Kurzweils Büchern diskutierte, bemerkte eloquent: "Es ist, als hätte man viel gutes Essen und ein wenig Hundekot genommen und dann alles so gemischt, dass es unmöglich ist zu verstehen, was gut und was schlecht ist."

Ob Sie seine Ideen mögen oder nicht, es ist unmöglich, sie ohne einen Schatten des Interesses weiterzugeben. Als Teenager begann er, Dinge zu erfinden, und in den folgenden Jahren erfand er einige wichtige Dinge, darunter den ersten Flachbettscanner, den ersten Scanner, der Text in Sprache umwandelt, den bekannten Kurzweil-Musiksynthesizer (das erste echte E-Piano) und den ersten kommerziell erfolgreichen Spracherkenner. Er ist außerdem Autor von fünf sensationellen Büchern. Kurzweil wird für seine gewagten Vorhersagen geschätzt und seine Erfolgsbilanz ist ziemlich gut - in den späten 80ern, als das Internet noch in den Kinderschuhen steckte, sagte er voraus, dass das Web in den 2000er Jahren ein globales Phänomen werden würde. Das Wall Street Journal nannte Kurzweil ein "unruhiges Genie", Forbes eine "globale Denkmaschine", Inc. Magazin - "Edisons rechtmäßiger Erbe", Bill Gates - "der beste von denenwer sagt die Zukunft der künstlichen Intelligenz voraus. " Im Jahr 2012 lud Google-Mitbegründer Larry Page Kurzweil zum CTO ein. 2011 war er Mitbegründer der Singularity University, die von der NASA gehostet und teilweise von Google gesponsert wird.

Seine Biographie ist wichtig. Wenn Kurzweil über seine Zukunftsvision spricht, klingt das wie verrückt verrückt, aber das wirklich Verrückte daran ist, dass er alles andere als verrückt ist - er ist ein unglaublich kluger, gebildeter und vernünftiger Mensch. Sie mögen denken, er ist falsch in seinen Vorhersagen, aber er ist kein Dummkopf. Kurzweils Vorhersagen werden von vielen Experten für Komfortzonen, Peter Diamandis und Ben Herzel, geteilt. Dies ist, was er glaubt, wird passieren.

Chronologie

Kurzweil glaubt, dass Computer bis 2029 das Niveau der allgemeinen künstlichen Intelligenz (AGI) erreichen werden, und bis 2045 werden wir nicht nur künstliche Superintelligenz haben, sondern auch eine völlig neue Welt - die Zeit der sogenannten Singularität. Die Chronologie der KI gilt immer noch als unverschämt übertrieben, aber in den letzten 15 Jahren hat die rasche Entwicklung hochfokussierter Systeme der künstlichen Intelligenz (KI) viele Experten gezwungen, sich auf die Seite von Kurzweil zu stellen. Seine Vorhersagen bleiben immer noch ehrgeiziger als Bostroms Umfrage (AGI bis 2040, ISI bis 2060), aber nicht viel.

Kurzweil zufolge treiben drei gleichzeitige Revolutionen in den Bereichen Biotechnologie, Nanotechnologie und vor allem KI die Singularität von 2045 voran. Bevor wir jedoch weiter gehen - und die Nanotechnologie die künstliche Intelligenz genau verfolgt -, nehmen wir uns eine Minute Zeit für die Nanotechnologie.

Image
Image

Ein paar Worte zur Nanotechnologie

Wir nennen normalerweise Nanotechnologietechnologien, die sich mit der Manipulation von Materie im Bereich von 1 bis 100 Nanometern befassen. Ein Nanometer ist ein Milliardstel Meter oder ein Millionstel Millimeter; Im Bereich von 1 bis 100 Nanometern können Viren (100 nm Durchmesser), DNA (10 nm Breite), Hämoglobinmoleküle (5 nm), Glucose (1 nm) und mehr untergebracht werden. Sollte die Nanotechnologie jemals zu unserem Thema werden, besteht der nächste Schritt darin, einzelne Atome zu manipulieren, die kleiner als eine Größenordnung sind (~, 1 nm).

Um zu verstehen, wo Menschen auf Probleme stoßen, wenn sie versuchen, Materie in einem solchen Maßstab zu manipulieren, springen wir zu einem größeren Maßstab. Die Internationale Raumstation liegt 481 Kilometer über der Erde. Wenn Menschen Riesen wären und die ISS mit dem Kopf treffen würden, wären sie 250.000 Mal größer als jetzt. Wenn Sie 250.000 Mal zwischen 1 und 100 Nanometer vergrößern, erhalten Sie 2,5 Zentimeter. Die Nanotechnologie ist das Äquivalent eines Menschen, der die ISS umkreist und versucht, Dinge von der Größe eines Sandkorns oder eines Augapfels zu manipulieren. Um zum nächsten Level zu gelangen - der Kontrolle einzelner Atome - muss der Riese Objekte mit einem Durchmesser von 1/40 Millimeter sorgfältig positionieren. Normale Menschen benötigen ein Mikroskop, um sie zu sehen.

Zum ersten Mal sprach Richard Feynman 1959 über Nanotechnologie. Dann sagte er: „Die Prinzipien der Physik sprechen, soweit ich das beurteilen kann, nicht gegen die Möglichkeit, Dinge Atom für Atom zu kontrollieren. Im Prinzip könnte ein Physiker jede Chemikalie synthetisieren, die ein Chemiker aufgeschrieben hat. Wie? Indem wir Atome dort platzieren, wo der Chemiker sagt, dass sie die Substanz erhalten sollen. Das ist die ganze Einfachheit. Wenn Sie wissen, wie man einzelne Moleküle oder Atome bewegt, können Sie fast alles tun.

Die Nanotechnologie wurde 1986 zu einem ernsthaften wissenschaftlichen Gebiet, als der Ingenieur Eric Drexler seine Grundlagen in seinem wegweisenden Buch Machines of Creation vorstellte. Drexler selbst ist jedoch der Ansicht, dass diejenigen, die mehr über moderne Ideen in der Nanotechnologie erfahren möchten, sein Buch von 2013 lesen sollten. Volle Fülle (radikale Fülle).

Sobald wir der Nanotechnologie auf den Grund gegangen sind, können wir damit technische Geräte, Kleidung, Lebensmittel, Bioprodukte - Blutzellen, Virus- und Krebsbekämpfer, Muskelgewebe usw. - herstellen. Und in einer Welt, in der Nanotechnologie eingesetzt wird, hängen die Kosten eines Materials nicht mehr von seiner Knappheit oder der Komplexität seines Herstellungsprozesses ab, sondern von der Komplexität seiner Atomstruktur. In der Welt der Nanotechnologie könnte ein Diamant billiger sein als ein Radiergummi.

Wir sind dort noch nicht einmal in der Nähe. Und es ist nicht ganz klar, ob wir die Komplexität dieses Weges unterschätzen oder überschätzen. Alles geht jedoch so weit, dass die Nanotechnologie nicht mehr weit ist. Kurzweil geht davon aus, dass wir sie bis 2020 haben werden. Die Weltstaaten wissen, dass die Nanotechnologie eine große Zukunft versprechen kann, und investieren daher viele Milliarden in sie.

Stellen Sie sich vor, welche Möglichkeiten ein superintelligenter Computer hätte, wenn er einen zuverlässigen Assembler im Nanomaßstab erhalten würde. Aber Nanotechnologie ist unsere Idee, und wir versuchen, sie zu fahren, es ist schwierig für uns. Was ist, wenn sie nur ein Scherz für das ISI-System sind und das ISI selbst Technologien entwickelt, die um ein Vielfaches leistungsfähiger sind als alles, was wir im Prinzip annehmen können? Wir waren uns einig: Niemand kann sich vorstellen, wozu künstliche Superintelligenz fähig sein wird? Es wird angenommen, dass unser Gehirn nicht einmal das Minimum dessen vorhersagen kann, was passieren wird.

Was könnte KI für uns tun?

Mit Superintelligenz und all der Technologie, die Superintelligenz schaffen könnte, wird ISI wahrscheinlich in der Lage sein, alle Probleme der Menschheit zu lösen. Globale Erwärmung? ISI wird zunächst die CO2-Emissionen stoppen, indem es eine Vielzahl effizienter nicht fossiler Brennstoffe zur Energieerzeugung erfindet. Er wird dann einen effektiven, innovativen Weg finden, um überschüssiges CO2 aus der Atmosphäre zu entfernen. Krebs und andere Krankheiten? Kein Problem - Gesundheitswesen und Medizin werden sich auf unvorstellbare Weise verändern. Welthunger? ISI wird mithilfe der Nanotechnologie Fleisch herstellen, das mit natürlichem, von Grund auf neuem, echtem Fleisch identisch ist.

Image
Image

Die Nanotechnologie wird in der Lage sein, einen Müllhaufen in einen Bottich mit frischem Fleisch oder anderen Lebensmitteln zu verwandeln (nicht unbedingt in der üblichen Form - stellen Sie sich einen riesigen Apfelwürfel vor) und all diese Lebensmittel mithilfe fortschrittlicher Transportsysteme auf der ganzen Welt zu verteilen. Dies ist natürlich ideal für Tiere, die nicht mehr für Nahrung sterben müssen. ISI kann auch viele andere Dinge tun, wie die Erhaltung gefährdeter Arten oder sogar das Zurückbringen ausgestorbener Arten aus konservierter DNA. ISI kann unsere schwierigsten makroökonomischen Probleme lösen - unsere schwierigsten wirtschaftlichen Debatten, ethischen und philosophischen Fragen, den globalen Handel - die für ISI schmerzlich offensichtlich sein werden.

Aber es gibt etwas ganz Besonderes, das ISI für uns tun könnte. Verführerisch und verlockend, das alles verändern würde: ISI kann uns helfen, mit der Sterblichkeit umzugehen. Wenn Sie die Fähigkeiten der KI allmählich verstehen, werden Sie vielleicht alle Ihre Vorstellungen vom Tod überdenken.

Es gab keinen Grund für die Evolution, unsere Lebensdauer länger zu verlängern als jetzt. Wenn wir lange genug leben, um Kinder zu gebären und so weit zu erziehen, dass sie für sich selbst sorgen können, ist Evolution genug. Aus evolutionärer Sicht reichen mehr als 30 Jahre für die Entwicklung aus, und es gibt keinen Grund für Mutationen, das Leben zu verlängern und den Wert der natürlichen Selektion zu verringern. William Butler Yates nannte unsere Spezies "eine Seele, die an ein sterbendes Tier gebunden ist". Nicht viel Spaß.

Und da wir alle eines Tages sterben, leben wir mit der Idee, dass der Tod unvermeidlich ist. Wir denken über das Altern im Laufe der Zeit nach - wir bewegen uns weiter vorwärts und können diesen Prozess nicht stoppen. Aber der Gedanke an den Tod ist tückisch: Gefangen von ihm vergessen wir zu leben. Richard Feynman schrieb:

„In der Biologie gibt es eine wunderbare Sache: In dieser Wissenschaft gibt es nichts, was von der Notwendigkeit des Todes sprechen würde. Wenn wir eine Perpetual-Motion-Maschine schaffen wollen, stellen wir fest, dass wir in der Physik genügend Gesetze gefunden haben, die entweder auf die Unmöglichkeit hinweisen oder dass die Gesetze falsch sind. Aber nichts in der Biologie weist auf die Unvermeidlichkeit des Todes hin. Dies lässt mich glauben, dass es nicht so unvermeidlich ist, und es ist nur eine Frage der Zeit, bis Biologen die Ursache dieses Problems, dieser schrecklichen universellen Krankheit, entdecken, es wird geheilt."

Tatsache ist, dass Altern nichts mit Zeit zu tun hat. Altern ist, wenn die physischen Materialien des Körpers abgenutzt sind. Auch Autoteile verschlechtern sich - aber ist Alterung unvermeidlich? Wenn Sie Ihr Auto weiter reparieren, während die Teile abgenutzt sind, wird es für immer halten. Der menschliche Körper ist nicht anders - nur komplexer.

Kurzweil spricht über intelligente, mit Wi-Fi verbundene Nanobots im Blutkreislauf, die unzählige Aufgaben für die menschliche Gesundheit erfüllen können, einschließlich der regelmäßigen Reparatur oder des Austauschs abgenutzter Zellen überall im Körper. Die Verbesserung dieses Prozesses (oder die Suche nach einer Alternative, die von einem intelligenteren ASI vorgeschlagen wird) hält nicht nur den Körper gesund, sondern kann auch das Altern umkehren. Der Unterschied zwischen dem Körper eines 60-Jährigen und eines 30-Jährigen liegt in einer Handvoll körperlicher Probleme, die mit der richtigen Technologie behoben werden könnten. ISI könnte ein Auto bauen, das eine Person mit 60 Jahren betreten und mit 30 Jahren verlassen würde.

Sogar ein degradiertes Gehirn könnte erneuert werden. Das ISI würde sicherlich wissen, wie dies zu tun ist, ohne die Gehirndaten (Persönlichkeit, Erinnerungen usw.) zu beeinflussen. Ein 90-jähriger Mann, der an einer vollständigen Verschlechterung des Gehirns leidet, könnte sich einer Umschulung unterziehen, sich erneuern und zum Beginn seines Lebens zurückkehren. Es mag absurd erscheinen, aber der Körper besteht aus einer Handvoll Atomen, und das ISI könnte sie sicherlich leicht manipulieren, jede atomare Struktur. Es ist nicht so absurd.

Kurzweil glaubt auch, dass sich künstliche Materialien im Laufe der Zeit immer mehr in den Körper integrieren werden. Zunächst einmal könnten die Organe durch hochentwickelte Maschinenversionen ersetzt werden, die für immer halten und niemals versagen würden. Dann könnten wir eine komplette Neugestaltung des Körpers durchführen und rote Blutkörperchen durch perfekte Nanobots ersetzen, die sich von selbst bewegen, sodass kein Herz mehr benötigt wird. Wir könnten auch unsere kognitiven Fähigkeiten verbessern, milliardenfach schneller denken und über die Cloud auf alle Informationen zugreifen, die der Menschheit zur Verfügung stehen.

Die Möglichkeiten, neue Horizonte zu erfassen, wären wirklich endlos. Die Menschen haben es geschafft, Sex mit einem neuen Zweck auszustatten, sie tun dies zum Vergnügen, nicht nur zur Fortpflanzung. Kurzweil glaubt, dass wir dasselbe mit Essen machen können. Nanobots könnten eine ideale Ernährung direkt an die Körperzellen liefern und so ungesunde Substanzen durch den Körper gelangen lassen. Der Nanotechnologietheoretiker Robert Freitas hat bereits einen Ersatz für Blutzellen entwickelt, der, wenn er im menschlichen Körper eingesetzt wird, es ihm ermöglicht, 15 Minuten lang nicht zu atmen - und dies wurde von einer Person erfunden. Stellen Sie sich vor, wann der ISI an die Macht kommt.

Kurzweil glaubt schließlich, dass der Mensch den Punkt erreichen wird, an dem er völlig künstlich wird; die Zeit, in der wir biologische Materialien betrachten und darüber nachdenken, wie primitiv sie waren; Zeit, in der wir über die frühen Stadien der Menschheitsgeschichte lesen werden, erstaunt darüber, wie Keime, Unfälle, Krankheiten oder einfach das Alter einen Menschen gegen seinen Willen töten können. Letztendlich werden die Menschen ihre eigene Biologie besiegen und ewig werden - dies ist der Weg zur glücklichen Seite des Schwebebalkens, über den wir von Anfang an gesprochen haben. Und Menschen, die daran glauben, sind sich auch sicher, dass uns eine solche Zukunft sehr, sehr bald erwartet.

Sie werden wahrscheinlich nicht überrascht sein, dass Kurzweils Ideen heftige Kritik hervorgerufen haben. Seine Singularität im Jahr 2045 und das anschließende ewige Leben der Menschen wurde "Aufstieg der Nerds" oder "intelligente Schöpfung der Menschen mit einem IQ von 140" genannt. Andere stellten den optimistischen Zeitrahmen, das Verständnis des menschlichen Körpers und des Gehirns in Frage und erinnerten an Moores Gesetz, das noch nicht verschwunden ist. Für jeden Experten, der an Kurzweils Ideen glaubt, gibt es drei, die glauben, er sei falsch.

Das Interessanteste daran ist jedoch, dass die meisten Experten, die mit ihm nicht einverstanden sind, im Allgemeinen nicht sagen, dass dies unmöglich ist. Anstatt "Bullshit, das wird niemals passieren" zu sagen, sagen sie so etwas wie "all das wird passieren, wenn wir zum ISI kommen, aber das ist das Problem." Bostrom, einer der anerkannten KI-Experten, der vor der Gefahr der KI warnt, gibt auch zu:

„Es gibt kaum noch ein Problem, das die Superintelligenz nicht lösen oder uns sogar helfen kann. Krankheit, Armut, Zerstörung der Umwelt, Leiden aller Art - all diese Superintelligenz mit Hilfe der Nanotechnologie kann in einem Moment gelöst werden. Superintelligenz kann uns auch eine unbegrenzte Lebensdauer geben, indem sie den Alterungsprozess mithilfe der Nanomedizin stoppt und umkehrt oder uns in die Cloud hochlädt. Superintelligenz kann auch Möglichkeiten für eine endlose Steigerung der intellektuellen und emotionalen Fähigkeiten schaffen. Er kann uns helfen, eine Welt zu schaffen, in der wir in Freude und Verständnis leben, uns unseren Idealen nähern und regelmäßig unsere Träume wahr werden lassen."

Dies ist jedoch ein Zitat eines Kritikers von Kurzweil, der zugibt, dass all dies möglich ist, wenn wir eine sichere ASI erstellen können. Kurzweil hat einfach definiert, was künstliche Superintelligenz werden soll, wenn es überhaupt möglich ist. Und wenn er ein guter Gott ist.

Die offensichtlichste Kritik an den Befürwortern der Komfortzone ist, dass sie bei der Beurteilung der Zukunft von ISI verdammt falsch liegen können. In seinem Buch The Singularity widmete Kurzweil 20 Seiten von 700 potenziellen ISI-Bedrohungen. Die Frage ist nicht, wann wir zu ISI kommen, die Frage ist, was seine Motivation sein wird. Kurzweil beantwortet diese Frage mit Vorsicht: „ISI beruht auf vielen unterschiedlichen Bemühungen und wird tief in die Infrastruktur unserer Zivilisation integriert sein. Tatsächlich wird es eng in unseren Körper und unser Gehirn eingebettet sein. Er wird unsere Werte widerspiegeln, weil er eins mit uns sein wird."

Aber wenn die Antwort lautet, warum machen sich so viele kluge Leute auf dieser Welt Sorgen um die Zukunft der künstlichen Intelligenz? Warum sagt Stephen Hawking, dass die Entwicklung von ISI "das Ende der Menschheit bedeuten könnte"? Bill Gates sagt, er "verstehe keine Leute, die sich nicht darum kümmern". Elon Musk befürchtet, dass wir "einen Dämon herbeirufen". Warum betrachten viele Experten ISI als die größte Bedrohung für die Menschheit?

Basierend auf Materialien von waitbutwhy.com, Zusammenstellung von Tim Urban. Der Artikel verwendet Materialien aus den Werken von Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog und Kai Sotal, Susan Schneider, Stuart Russell und Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Verfasser: Ilya Khel

Teil drei: Warum könnte es unsere letzte Erfindung sein?