Künstliche Intelligenz Entfesseln: Openai, Elon Musks Verrückter Plan - Alternative Ansicht

Inhaltsverzeichnis:

Künstliche Intelligenz Entfesseln: Openai, Elon Musks Verrückter Plan - Alternative Ansicht
Künstliche Intelligenz Entfesseln: Openai, Elon Musks Verrückter Plan - Alternative Ansicht

Video: Künstliche Intelligenz Entfesseln: Openai, Elon Musks Verrückter Plan - Alternative Ansicht

Video: Künstliche Intelligenz Entfesseln: Openai, Elon Musks Verrückter Plan - Alternative Ansicht
Video: Unsterblich durch künstliche Intelligenz? | Elon Musk & Leben in der Cloud | Breaking Lab 2024, Oktober
Anonim

Politiker und Kapitalisten haben die Tradition, am Freitagnachmittag viele Nachrichten zu veröffentlichen, um die schlechten Nachrichten unter ihnen zu verbergen. Es war also etwas seltsam, dass Elon Musk, Gründer von Tesla, einem Hersteller von Elektrofahrzeugen, und Sam Altman, Präsident des renommierten Technologie-Inkubators Y Combinator, am Ende einer einwöchigen AI-Konferenz im vergangenen Dezember in Montreal ihr neues Unternehmen mit AI-Thema vorstellten.

Es gab einen Grund für die Einführung von OpenAI zu einer so späten Stunde. Nicht weil niemand zuschaute. Weil alle zuschauten. Als einige der mächtigsten Unternehmen im Silicon Valley spürten, dass der Wind wehte, boten sie dem neu aufgewachsenen OpenAI AI-Talent riesige Geldsummen an, um diese Genies zu Hause zu halten. In letzter Minute wurden die Vorschläge - einige davon auf der Konferenz selbst - so groß, dass Musk und Altman die Ankündigung des neuen Startups verschieben mussten. "Die Summen haben den Rand des Wahnsinns erreicht", sagt Wojciech Zaremba, ein Wissenschaftler, der nach Praktika bei Google und Facebook zu OpenAI kam und um 23:00 Uhr wichtige Angebote erhielt.

Image
Image

Wie viele Dollar ist die Grenze des Wahnsinns? Vor zwei Jahren, als sich der Markt für die neuesten Technologien für maschinelles Lernen zu erwärmen begann, sagte Microsoft Research VP Peter Lee, dass die Kosten für Top-KI-Forscher die Kosten für einen Top-Quarterback in der National Football League überschritten haben - und das unter normalen Umständen, nicht bei den größten Unternehmern Silicon Valley versucht, die besten Talente abzuwerben. Zaremba sagt, als OpenAI zusammenkam, wurde ihm das Zwei- bis Dreifache seines Marktwerts angeboten.

OpenAI hat diese Vorschläge nicht erfüllt. Aber er bot etwas anderes an: Die Fähigkeit, Forschung zu betreiben, konzentrierte sich ausschließlich auf die Zukunft und nicht auf Produkte und vierteljährliche Gewinne und teilte letztendlich den größten Teil - wenn nicht den gesamten - der Forschung unter denjenigen auf, die dies wünschen. Das ist richtig: Musk, Altman und Company wollten die transformativste Technologie des 21. Jahrhunderts verschenken und kostenlos verschenken.

Zaremba sagt, dass Vorschläge am Rande des Wahnsinns ihn tatsächlich abschrecken - trotz des großen Respekts für Unternehmen wie Google und Facebook. Er hatte das Gefühl, dass das Geld kanalisiert wurde, um die Gründung von OpenAI zu verhindern, was sein Engagement für ein großzügiges Startup weiter verstärkte. "Ich habe erkannt", sagt Zaremba, "dass OpenAI der beste Ort für mich ist."

Fühlst du die Ironie im Herzen dieser Geschichte? Während die weltweit größten Technologieunternehmen versuchen, ihre Forscher so stark zu halten, wie NFL-Teams versuchen, ihre Star-Quarterbacks zu halten, möchten die Forscher selbst nur ihre Erkenntnisse teilen. In der hoch entwickelten Welt der KI-Forschung werden die klügsten Köpfe nicht nur vom nächsten Produktzyklus oder Gewinn angetrieben oder sind überhaupt nicht von ihnen besessen. Sie wollen die KI verbessern, und es ist unmöglich, die KI zu verbessern, wenn Sie Ihre neuesten Entwicklungen für sich behalten.

OpenAI hat kürzlich die erste Reihe von KI-Software veröffentlicht, ein Toolkit zur Erstellung künstlicher Intelligenzsysteme auf der Basis der Technologie namens Verstärkungslernen, eine der Schlüsseltechnologien, die zur Entwicklung von AlphaGo geführt haben, Googles KI, die die Welt mit ihren Funktionen überraschte. Spiele gehen. Mit diesen Tools können Sie Systeme erstellen, die eine neue Generation von Robotern freischalten, Atari-Spiele spielen und die Weltmeister bei Go schlagen.

Werbevideo:

Aber Spielzeug ist nur der Anfang. OpenAI ist eine Milliarden-Dollar-Mission, um die KI so weit wie möglich voranzutreiben. In der Art und Weise, wie das Unternehmen zusammenkam und was seine Pläne sind, können Sie die nächste neue Innovationswelle sehen. Wir wissen noch nicht, ob OpenAI der Haupttreiber dieser Änderungen sein wird. Die Kräfte hinter der Schaffung dieses eher ungewöhnlichen Startups zeigen jedoch, dass die nächste Generation der KI nicht nur die Technologie, sondern auch die Art und Weise, wie diese Technologie entwickelt wird, verändern wird.

Künstliche Intelligenz ist überall

Silicon Valley hat eine Leidenschaft für Übertreibung. Mutig klingende Aussagen sollten immer mit einem Körnchen Salz getroffen werden. Auf dem Gebiet der künstlichen Intelligenz finden jedoch tatsächlich Veränderungen statt. In Unternehmen wie Google und Facebook helfen Deep-Learning-Technologien Internetdiensten bereits dabei, Gesichter in Fotos zu identifizieren, Sprachbefehle auf Smartphones zu erkennen und auf Internetsuchen zu reagieren. Und dieselbe Technologie könnte in Zukunft viele andere Probleme lösen. Es kann Maschinen helfen, die natürliche Sprache zu verstehen - was wir Menschen gewohnt sind zu sprechen und zu schreiben. Es kann helfen, eine neue Generation von Robotern zu entwickeln und Automaten zu ermöglichen, ihre Aufgaben nicht nur auszuführen, sondern auch im laufenden Betrieb zu lernen. Und einige glauben, dass dies Maschinen letztendlich so etwas wie gesunden Menschenverstand geben wird - die Fähigkeit, wirklich wie eine Person zu denken.

Und zusammen mit solchen Versprechungen entsteht tiefe Angst. Musk und Altman befürchten, dass Menschen, die AIs erstellen können, die großartige Dinge bewirken, AIs erstellen können, die schreckliche Dinge bewirken. Sie sind nicht allein in ihren Ängsten. Und obwohl es nicht intuitiv zu sein scheint, glauben Musk und Altman auch, dass der beste Weg zur Bekämpfung bösartiger KI nicht darin besteht, den Zugang zu künstlicher Intelligenz einzuschränken, sondern sie zu erweitern. Es ist dieses Streben, das zu einem Team junger und intelligenter Idealisten führt.

OpenAI tauchte letzten Sommer eines Abends in einem privaten Raum im Rosewood Hotel im Silicon Valley auf, einem gehobenen Stadthotel, das buchstäblich im Zentrum der Welt der Risikokapitalgeber liegt. Elon Musk aß zu Mittag mit Ilya Sutskever, die damals bei Google Brain war, einem Unternehmen, das tiefe neuronale Netze entwickelte - künstliche Intelligenzsysteme, die für die Ausführung von Aufgaben trainiert werden können, indem sie riesige Mengen digitaler Daten analysieren, einschließlich des Erkennens von Fotos und des Schreibens von E-Mails, und aus Korrespondenz lernen. Suckever war einer der Hauptentwickler des Projekts.

Ilya Sutskever

Image
Image

Sam Altman, dessen Y Combinator Unternehmen wie Airbnb, Dropbox und Coinbase mitgestaltete, vermittelte das Treffen und brachte mehrere KI-Forscher und den jungen, aber erfahrenen Firmenbauer Greg Brockman zusammen, der früher Chief Technology Officer beim Start-up Stripe, einem anderen Unternehmen Y, war Kombinator. Es war eine vielseitige Gruppe. Aber jeder hatte ein Ziel: ein neues KI-Labor zu schaffen, das nicht nur von Google, sondern von allen anderen kontrolliert werden kann. "Das Beste, was ich mir als Herausforderung vorstellen kann", sagt Brockman, "ist, die Menschheit dazu zu bewegen, echte KI auf einem sicheren Weg zu schaffen."

Musk war dort wegen seiner langen Freundschaft mit Altman - und weil KI für die Zukunft seiner verschiedenen Unternehmungen und für die Zukunft insgesamt von entscheidender Bedeutung ist. Tesla braucht KI, wenn es selbstfahrende Autos bauen will. SpaceX, ein weiteres Unternehmen von Musk, benötigt KI, um Menschen in den Weltraum zu bringen und sie dort sicher und gesund zu halten. Aber Musk ist auch einer der ersten (und lautesten), der warnt, dass die Menschheit eines Tages die Kontrolle über Systeme verlieren könnte, die leistungsfähig genug sind, um selbstständig zu lernen.

Es gab ein Problem: Viele Leute, die in der Lage waren, all diese Probleme zu lösen, arbeiteten bereits bei Google (sowie bei Microsoft, Facebook, Baidu und Twitter). Und niemand bei diesem Abendessen war sich völlig sicher, dass diese Forscher in ein neues Startup gelockt werden konnten, selbst wenn Musk und Altman dahinter steckten. Und mindestens ein Schlüsselspieler war bereit, das Schiff zu verlassen. "Ich habe die Risiken verstanden", sagt Suckever, "aber ich wusste auch, dass es interessant sein würde, es zu versuchen."

Brechen Sie den Kreis

Durch Gespräche mit Musk, Altman und anderen bei Rosewood ermutigt, beschloss Brockman bald, das Labor zu bauen, an das sie alle gedacht hatten. Mit einem starken Engagement für das Projekt holte er Yoshua Bengio, einen Wissenschaftler der Universität von Montreal und einen der Gründungsväter der Deep-Learning-Bewegung. Zwei weitere Branchenpioniere - Jeff Hinton und Jan Lecun - arbeiten bei Google bzw. Facebook, aber Bengio strebte ein Leben in der akademischen Welt an, das außerhalb der Reichweite industrieller Tentakel liegt. Er entwarf eine Liste der besten Forscher auf diesem Gebiet und in den nächsten Wochen kontaktierte Brockman alle, die er konnte, einschließlich mehrerer anderer.

Viele dieser Forscher begrüßten die Idee, waren sich jedoch der Möglichkeit eines solchen Sprunges bewusst. Um den Kreis zu durchbrechen, wählte Brockman die zehn Entdecker aus, die er am liebsten sehen wollte, und lud sie ein, den Samstag mit Wein, Snacks und Gesprächen in einem Weinkeller im Napa Valley zu verbringen. Für Brockman war sogar eine Reise nach Napa der Katalysator für das Projekt. "Dies ist eine unterschätzte Art, Menschen zusammenzubringen, insbesondere in Zeiten, in denen man sich nicht beeilen kann, um sein Ziel zu erreichen", sagt er. "Du musst dorthin gehen, aber du musst auch reden." Und als sie zum Wein kamen, blieb diese Atmosphäre bestehen. Wie Suckever sagt, "war der Wein dem Gespräch untergeordnet."

Greg Brockman

Image
Image

Am Ende des Tages lud Brockman alle zehn Forscher ein, sich dem Labor anzuschließen, und gab ihnen drei Wochen Zeit zum Nachdenken. Am Ende der Amtszeit befehligten neun. Und sie blieben dabei, trotz der großen Angebote der Giganten des Silicon Valley. "Ich habe ein sehr attraktives Angebot erhalten, daher war die Entscheidung nicht einfach", sagt Suckever von Google, seinem früheren Arbeitgeber. "Schließlich habe ich mich für OpenAI entschieden, teilweise wegen der sehr starken Gruppe von Menschen und natürlich hauptsächlich wegen ihrer Mission."

Die Deep-Learning-Bewegung begann im akademischen Bereich. Unternehmen wie Google, Microsoft und Facebook haben sich erst kürzlich entschlossen, diesen Bereich anzugehen, da Fortschritte bei der rohen Rechenleistung diese tiefen neuronalen Netze zur Realität gemacht haben und nicht nur zu einer theoretischen Möglichkeit. Leute wie Hinton und LeCune haben die Wissenschaft bei Google und Facebook wegen der enormen Ressourcen in diesen Unternehmen verlassen. Aber blieb eng in Zusammenarbeit mit anderen Theoretikern des Feldes verbunden. Wie LeCun erklärt, erfordert Deep-Learning-Forschung jedoch den freien Ideenfluss. "Wenn Sie im Geheimen recherchieren", sagt er, "fallen Sie zurück."

Infolgedessen verfügen große Unternehmen jetzt über einen Großteil ihrer KI-Forschung. Dies ist ein großer Trumpf, insbesondere für Google, das die Technologie seines Online-Imperiums lange Zeit geheim gehalten hat. Vor nicht allzu langer Zeit hat Google den Quellcode für die Software-Engine geöffnet, mit der die neuronalen Netze ausgeführt werden. Aber in diesem Rennen um die Zukunft bleibt noch viel unter Verschluss. Brockman, Altman und Musk versuchen, den Begriff der Offenheit noch weiter voranzutreiben, indem sie sagen, dass sie nicht wollen, dass ein oder zwei große Unternehmen die Zukunft der künstlichen Intelligenz kontrollieren.

Grenzen der Offenheit

Es klingt alles großartig. Bei allem Idealismus von OpenAI befinden sich die Forscher möglicherweise unter denselben Bedingungen, unter denen sie gezwungen waren, an alten Jobs zu arbeiten. Offenheit hat ihre Grenzen. Und die langfristige Vision der KI ist nicht das einzige Interesse an diesem Spiel. OpenAI leistet keine Wohltätigkeitsarbeit. Die Unternehmen von Musk werden stark von der Arbeit des Startups profitieren, ebenso wie Altmans Y Combinator. "Es gibt sicherlich einige konkurrierende Punkte", sagt Lecun. - Es ist eine gemeinnützige Organisation, aber sie hat eine enge Beziehung zu Y Combinator. Und die Leute werden dafür bezahlt, in dieser Branche zu arbeiten."

Das Labor zahlt nicht die gleichen astronomischen Gehälter, die Google und Facebook KI-Forschern zur Verfügung gestellt haben, sagte Brockman. Er sagt aber auch, dass das Labor "sie gut bezahlen will" und eine Entschädigung in Form von Aktienoptionen anbietet, zuerst bei Y Combinator und später möglicherweise bei SpaceX (das im Gegensatz zu Tesla ein privates Unternehmen ist).

Dennoch besteht Brockman darauf, dass OpenAI keine Sonderbehandlung für verbundene Unternehmen vorsieht. OpenAI ist eine Forschungsinitiative, keine Beratungsfirma. Der Idealismus von OpenAI hat jedoch seine Grenzen. Das Unternehmen öffnet den Code möglicherweise nicht für alles, was es produziert, obwohl das ultimative Ziel immer noch darin besteht, das meiste davon zu verbreiten, sei es wissenschaftliche Artikel oder Internetdienste. „Das Öffnen ist nicht unbedingt die beste Option. Sie müssen die Idee nähren, sehen, wohin sie führt, und sie dann veröffentlichen, sagt Brockman. - Wir werden viel Open Source Code produzieren. Aber wir werden auch eine Menge Sachen haben, die noch nicht zur Veröffentlichung bereit sind."

Suzkever fügt hinzu, dass OpenAI einen Teil seiner Arbeit patentieren könnte. "Wir werden in Kürze nichts patentieren lassen", sagt Brockman. "Aber wir sind bereit, die Taktik langfristig zu ändern, wenn wir glauben, dass es besser für die Welt ist." Zum Beispiel kann OpenAI proaktive Patente erstellen, um andere davon abzuhalten, Patente zu erhalten.

Einige mögen Patente als Gewinnmotiv ansehen. Aber das ist der springende Punkt bei Patenten.

Das Problem der Superintelligenz

Als Musk und Altman OpenAI vorstellten, skizzierten sie das Projekt auch als einen Weg, um die Bedrohung durch böswillige Superintelligenz zu neutralisieren. Natürlich könnte eine solche Superintelligenz aus der Arbeit von OpenAI resultieren, aber sie bestehen darauf, dass jede Bedrohung gemindert wird, indem die Technologie allen zur Verfügung gestellt wird. "Wir denken, es ist viel wahrscheinlicher, dass eine Vielzahl von AIs zufällige schlechte Schauspieler aufhalten kann", sagt Altman.

Aber nicht jeder in diesem Bereich glaubt an ein solches Ergebnis. Nick Bostrom, ein Philosoph aus Oxford, der wie Musk vor den Gefahren der KI gewarnt hat, weist darauf hin, dass "schlechte Schauspieler" sie fangen können, wenn Sie Ihre Forschung uneingeschränkt teilen, bevor alle davon überzeugt sind, dass sie in Sicherheit sind. "Wenn Sie einen Knopf haben, der die Welt beschissen macht", sagt Bostrom, "möchten Sie wahrscheinlich nicht jedem Zugriff darauf gewähren." Wenn OpenAI andererseits beschließt, die Forschung zurückzuhalten, um die Bösen davon abzuhalten, darauf zuzugreifen, fragt Bostrom: Wie wird sich dies von Google oder Facebook unterscheiden?

Image
Image

Er sagt ja, der gemeinnützige Status von OpenAI kann Dinge ändern oder auch nicht. Die wahre Stärke des Projekts sei, dass es von Google und Facebook überprüft werden könne. „Es wird in der Lage sein, die Wahrscheinlichkeit zu verringern, dass Superintelligenz monopolisiert wird. Es wird in der Lage sein, einen der möglichen Gründe zu beseitigen, warum einige Einzelpersonen oder Gruppen Zugang zu einer besseren KI haben als alle anderen."

In einer kürzlich erschienenen Arbeit erklärt der Philosoph, dass der Haupteffekt einer Initiative wie OpenAI - eine Initiative, um frei zu teilen, was getan wird - darin besteht, den Fortschritt der künstlichen Intelligenz zumindest kurzfristig zu beschleunigen. Und es kann auf lange Sicht den Fortschritt beschleunigen, vorausgesetzt, es wird ein höheres Maß an Transparenz beibehalten, als dies wirtschaftlich optimal wäre.

"Es kann sein, dass ein philanthropisch motivierter F & E-Investor den Fortschritt ernsthaft beschleunigen kann, indem er eine offene Wissenschaftspolitik verfolgt", sagt er.

Wie Xerox PARC

Anfang Januar versammelten sich neun von Brockmans Forschern in seiner Wohnung in San Francisco. Das Projekt war so neu, dass sie nicht einmal Whiteboards hatten. (Stellen Sie sich vor.) Sie kauften ein paar am selben Tag und machten sich an die Arbeit.

Laut Brockman wird OpenAI zunächst das verstärkte Lernen untersuchen, eine maschinenbasierte Methode, um Probleme zu lernen, indem sie immer wieder wiederholt werden, um zu verfolgen, welche Methoden die besten Ergebnisse erzielen. Eine weitere große Herausforderung ist das sogenannte "unbeaufsichtigte Lernen" - die Schaffung von Maschinen, die sich ohne menschliche Hilfe wirklich selbst lernen können. Deep Learning hängt heute von sorgfältig gekennzeichneten Daten ab. Wenn Sie einem neuronalen Netzwerk beibringen möchten, Fotos von Katzen zu erkennen, müssen Sie ihm eine bestimmte Anzahl von Beispielen geben - und diese Beispiele sollten als Fotos mit Katzen gekennzeichnet werden. Ein solches Training wird mit Hilfe von Menschen durchgeführt. Aber wie viele andere Wissenschaftler plant OpenAI den Aufbau neuronaler Netze, die ohne sorgfältige Auswahl von Daten lernen können.

„Wenn Sie eine wirklich gute Unterrichtsmethode ohne Lehrer haben, können Maschinen aus allen Kenntnissen im Internet lernen - wie ein Mensch, der sich nur umschaut - oder Bücher lesen“, sagt Brockman.

Er sieht OpenAI als die moderne Inkarnation von Xerox PARC, einem Technologieforschungslabor, das in den 1970er Jahren existierte. So wie die offene und kostenlose Forschung von PARC zu allem geführt hat, von grafischen Benutzeroberflächen über Laserdruck bis hin zu objektorientierter Programmierung, möchten Brockman und sein Team in die frühere Science-Fiction eintauchen. PARC war im Besitz von Xerox, wurde aber von vielen anderen Unternehmen, einschließlich Apple, gespeist, weil Leute wie Steve Jobs seine Forschung begrüßten. Brockman möchte, dass jeder die OpenAI-Forschung begrüßt.

In der Hoffnung, diese Dynamik zu fördern, rekrutierten Brockman und das Unternehmen mehrere andere bemerkenswerte Forscher, darunter Ian Goodfellow, einen weiteren leitenden Wissenschaftler im Google Brain-Team. Laut Brockman hat PARC im Grunde genommen ein paar kluge Leute zusammengebracht und beschlossen, zu sehen, was passiert ist. "Sie brauchen eine gemeinsame Vision ohne zentrale Kontrolle."

Mangelnde Kontrolle ist für das Ideal von wesentlicher Bedeutung. Wenn Sie genug Leute in das kollektive Ziel bringen, wird das Endergebnis alles überzeugen, was Sie sich heimlich ausgedacht haben. Aber wenn die KI so mächtig wird wie versprochen, wird sich die Gleichung ändern. Wir brauchen die Gewissheit, dass die neu entdeckte KI an denselben egalitären Idealen festhalten wird, die zu ihrer Entstehung geführt haben. Moschus, Altman und Brockman glauben an Menschen, an die Menge. Und wenn sie sich als richtig herausstellen, wird diese Menge eines Tages nicht ganz menschlich sein.

ILYA KHEL