Unser Gesamtes Wissen über Künstliche Intelligenz Ist Nur Täuschung - Alternative Ansicht

Inhaltsverzeichnis:

Unser Gesamtes Wissen über Künstliche Intelligenz Ist Nur Täuschung - Alternative Ansicht
Unser Gesamtes Wissen über Künstliche Intelligenz Ist Nur Täuschung - Alternative Ansicht

Video: Unser Gesamtes Wissen über Künstliche Intelligenz Ist Nur Täuschung - Alternative Ansicht

Video: Unser Gesamtes Wissen über Künstliche Intelligenz Ist Nur Täuschung - Alternative Ansicht
Video: Künstliche Intelligenz ist menschlich! - Clixoom Science & Fiction 2024, Kann
Anonim

Vielleicht einer der schwierigsten Tests der Maschinenintelligenz war das Schachspiel, das vor fast 20 Jahren zwischen dem Deep Blue-Computer und dem Schachweltmeister Garry Kasparov stattfand. Das Auto hat gewonnen. Im Moment ist die Reihe der Spiele im Logikspiel Go beendet, in der der AI AlphaGo von DeepMind (Inhaber von Google) und der legendäre Go-Champion aus China, Li Si Dol, gegeneinander antraten. In vier der fünf Spiele gewann die Maschine und zeigte in diesem Spiel ihre Überlegenheit gegenüber dem Menschen. Das unglaublich komplexe Spiel zwischen Mensch und KI zeigt, dass sich die Maschinenintelligenz in dieser Zeit sehr stark entwickelt hat. Es scheint, dass der schicksalhafte Tag, an dem Maschinen wirklich schlauer als Menschen werden, näher als je zuvor ist. Es scheint jedoch, dass viele überhaupt nicht verstehen, sondern sich sogar über die Konsequenzen irren, die uns in Zukunft erwarten könnten.

Wir unterschätzen einige sehr schwerwiegende und sogar gefährliche Folgen der Entwicklung künstlicher Intelligenz. Im vergangenen Jahr gab SpaceX-Mitbegründer Elon Musk eine Erklärung ab, in der er seine Besorgnis über die mögliche Versklavung der Welt durch künstliche Intelligenz zum Ausdruck brachte, was wiederum zu einer Vielzahl von Kommentaren sowohl von Befürwortern als auch von Gegnern dieser Meinung führte.

Image
Image

Für eine solch grundlegend revolutionäre Zukunft, die uns erwarten kann, ist es überraschend, dass es heute so viele Meinungsverschiedenheiten darüber gibt, ob es überhaupt passieren wird und wie es sich letztendlich herausstellen wird. Es ist besonders seltsam, die unglaublichen Vorteile zu leugnen, die wir durch die Schaffung einer wirklich intelligenten KI erhalten können, natürlich unter Berücksichtigung aller möglichen Risiken. All diese Fragen sind unglaublich schwierig, die richtigen Antworten zu finden, da KI im Gegensatz zu anderen Erfindungen der Menschheit diese Menschheit wirklich "verjüngen" oder vollständig zerstören kann.

Jetzt ist es schwer zu verstehen, woran man glauben und worauf man hoffen soll. Dank der Pioniere der Informatik, Neurowissenschaftler und Theoretiker der KI-Entwicklung beginnt sich jedoch langsam ein klares Bild zu klären. Nachfolgend finden Sie eine Liste der häufigsten Missverständnisse und Mythen in Bezug auf künstliche Intelligenz.

Wir werden niemals KI mit humanoider Intelligenz erschaffen

Die Realität wiederum legt nahe, dass wir bereits Computer haben, die in einigen Bereichen den menschlichen Fähigkeiten entsprechen und diese sogar übertreffen. Nehmen Sie Schach oder das gleiche Spiel, handeln Sie an Börsen oder spielen Sie die Rolle eines virtuellen Gesprächspartners. Computer und die Algorithmen, die sie steuern, werden mit der Zeit nur besser, und es ist nur eine Frage der Zeit, bis sie den menschlichen Fähigkeiten entsprechen.

Werbevideo:

Image
Image

Gary Markus, Forscher an der New York University, sagte einmal, dass "praktisch jeder", der mit KI arbeitet, glaubt, dass Maschinen uns eines Tages übertreffen werden:

"Der einzige Streit zwischen Anhängern und Skeptikern ist der Zeitpunkt dieses Ereignisses."

Futuristen wie Ray Kurzweil glauben, dass dies in den kommenden Jahrzehnten passieren könnte, während andere sagen, dass es mehrere Jahrhunderte dauern wird.

KI-Skeptiker überzeugen nicht davon, dass die Schaffung künstlicher Intelligenz als etwas Einzigartiges und technologisch einem realen menschlichen Gehirn sehr ähnlich ist, das jenseits der Realität liegt. Unser Gehirn ist auch eine Maschine. Biologische Maschine. Es existiert in derselben Welt und gehorcht denselben Gesetzen der Physik wie alles andere. Und im Laufe der Zeit werden wir das gesamte Prinzip seiner Arbeit vollständig herausfinden.

KI wird Bewusstsein haben

Es besteht allgemeiner Konsens darüber, dass die maschinelle Intelligenz bewusst sein wird. Das heißt, die KI wird genauso denken wie ein Mensch. Darüber hinaus glauben einige Kritiker, beispielsweise Microsoft-Mitbegründer Paul Allen, dass wir aufgrund einer unvollständigen theoretischen Grundlage, die die Mechanismen und Prinzipien des Selbstbewusstseins beschreibt, noch nicht einmal allgemeine künstliche Intelligenz geschaffen haben, dh Intelligenz, die in der Lage ist, intellektuelle Aufgaben auszuführen, mit denen eine Person kann damit umgehen. Murray Shanahan, Assistenzprofessor am Department of Cognitive Robotics am Imperial College London, zufolge sollten wir die beiden jedoch nicht gleichsetzen.

Image
Image

„Selbstbewusstsein ist definitiv ein sehr interessantes und wichtiges Forschungsthema, aber ich glaube nicht, dass Selbstbewusstsein ein obligatorisches Attribut menschlicher künstlicher Intelligenz sein sollte“, sagt Shanahan.

"Im Großen und Ganzen verwenden wir den Begriff 'Selbstbewusstsein' nur, um verschiedene psychologische und kognitive Attribute anzuzeigen, die normalerweise in einer Person miteinander verbunden sind."

Man kann sich ein sehr intelligentes Auto vorstellen, dem eines oder mehrere dieser Attribute fehlen. Eines Tages werden wir in der Lage sein, eine wirklich unglaublich intelligente KI aufzubauen, aber gleichzeitig ohne die Fähigkeit zur Selbsterkenntnis sowie ohne subjektives und bewusstes Verständnis der Welt um uns herum. Shanahan merkt an, dass die Vereinheitlichung von Intelligenz und Selbstbewusstsein innerhalb der Maschine weiterhin möglich sein wird, aber wir dürfen nicht übersehen, dass dies zwei völlig getrennte Konzepte sind.

Und obwohl eine der Varianten des "Turing-Tests", bei der eine Maschine zeigte, dass sie sich nicht von einer Person unterscheidet, erfolgreich bestanden wurde, bedeutet dies keineswegs, dass diese Maschine ein Bewusstsein hat. Aus unserer (menschlichen) Sicht mag uns fortgeschrittene künstliche Intelligenz als etwas erscheinen, das Selbstbewusstsein besitzt, aber die Maschine selbst wird sich ihrer selbst nicht bewusster sein als derselbe Stein oder Taschenrechner.

Wir sollten keine Angst vor KI haben

Im Januar dieses Jahres teilte Facebook-Gründer Mark Zuckerberg seine Gedanken darüber mit, wie wir keine Angst vor KI haben sollten, und fügte hinzu, dass diese Technologie weltweit enorme Vorteile bringen kann. Die Wahrheit ist, er hat nur teilweise recht. Wir werden in der Tat in der Lage sein, mit der uns zur Verfügung stehenden KI erstaunliche Vorteile zu erzielen (von selbstfahrenden Autos bis zu neuen Entdeckungen in der Medizin), aber niemand kann garantieren, dass jede Anwendung von KI von Vorteil ist.

Ein hochintelligentes System weiß vielleicht alles, was für bestimmte Aufgaben erforderlich ist (z. B. das Lösen einer komplexen globalen Finanzsituation oder das Hacken der Computersysteme des Feindes). Außer hochspezialisierten Aufgaben ist das Potenzial der KI jedoch noch völlig unklar und daher potenziell gefährlich. Zum Beispiel ist das DeepMind-System auf das Go-Spiel spezialisiert, aber es fehlt die Fähigkeit (und der Grund), Gebiete außerhalb dieses Bereichs zu erkunden.

Flammencomputervirus, dessen Aufgabe es war, die Länder des Nahen Ostens zu verfolgen

Image
Image

Viele dieser Systeme können ernsthafte Sicherheitsrisiken bergen. Ein gutes Beispiel ist das mächtige und gerissene Stuxnet-Virus, ein militarisierter Wurm, der von den USA und dem israelischen Militär geschaffen wurde, um iranische Atomkraftwerke zu infiltrieren und anzugreifen. Nur dieses Schadprogramm infizierte irgendwie (versehentlich oder absichtlich) auch eines der russischen Atomkraftwerke.

Ein weiteres Beispiel ist das Flammenvirus, das für gezielte Cyberspionage im Nahen Osten entwickelt wurde. Es ist leicht vorstellbar, wie die "zukünftigen Versionen" der Stuxnet- und Flame-Viren unabhängig voneinander über die ihnen zugewiesenen Aufgaben hinausgehen und nahezu die gesamte Infrastruktur eines Landes infizieren können. Und sie werden es sehr leise und unmerklich tun.

Künstliche Superintelligenz ist zu klug, um Fehler zu machen

Richard Luzmore, Mathematiker, Forscher für künstliche Intelligenz und Gründer des Robotikunternehmens Surfing Samurai Robots, glaubt, dass die meisten KI-Weltuntergangsszenarien unwahrscheinlich erscheinen, da sie alle weitgehend auf dem basieren, was KI eines Tages sagen wird: „Ich verstehe diese Zerstörung Menschen sind ein Fehler in meinem Programmcode, aber ich muss der Aufgabe trotzdem folgen."

Image
Image

Luzmore glaubt, dass KI, wenn sie sich gemäß diesem Szenario verhält, logischen Widersprüchen ausgesetzt sein wird, die ihre gesamte akkumulierte Wissensbasis in Frage stellen und schließlich zu ihrem eigenen Bewusstsein für ihre Dummheit und Nutzlosigkeit führen werden.

Der Forscher glaubt auch, dass diejenigen, die sagen, dass "KI nur das tun wird, was in ihrem Programm enthalten ist", sich irren, genau wie diejenigen, die einst dieselben Worte sagten, aber gegenüber Computern und erklärt, dass Computersysteme niemals Universalität haben werden.

Peter McIntyre und Stuart Armstrong, beide am Institut für die Zukunft der Menschheit der Universität Oxford, stimmen dieser Meinung nicht zu und argumentieren, dass KI-Verhalten obligatorisch und weitgehend durch den Programmcode gerechtfertigt sein wird. Wissenschaftler glauben nicht, dass KI niemals Fehler machen wird oder im Gegenteil zu dumm sein wird, um genau zu verstehen, was wir von ihnen wollen.

"Künstliche Superintelligenz (ISI) ist per Definition ein Agent, dessen Intelligenz in fast allen Bereichen die besten Köpfe der Menschheit um ein Vielfaches übertreffen wird", sagt McIntyre.

"Er wird definitiv verstehen, was wir von ihm wollen."

McIntyre und Armstrong glauben, dass KI nur die Aufgaben ausführen wird, für die sie programmiert wurde, aber wenn sie sich irgendwie von selbst entwickelt, wird sie höchstwahrscheinlich versuchen herauszufinden, inwieweit sich ihre Handlungen von menschlichen Aufgaben unterscheiden und inhärent sind. Gesetze.

McIntyre vergleicht die Zukunft des Menschen mit der der Mäuse. Mäuse haben einen starken Instinkt, Nahrung und Unterkunft zu finden, aber ihre Ziele stehen sehr oft im Widerspruch zu einer Person, die sie nicht in ihrem Haus sehen möchte.

"Wie unser Wissen über Mäuse und ihre Wünsche kann auch das Superintelligenzsystem alles über uns wissen und wissen, was wir wollen, aber gleichzeitig wird es unseren Wünschen völlig gleichgültig sein."

Eine einfache Lösung beseitigt das Problem der KI-Steuerung

Wie im Film "From the Machine" gezeigt, wird es sehr schwierig sein, die KI zu kontrollieren, die viel schlauer sein wird als wir

Image
Image

Wenn wir davon ausgehen, dass wir eines Tages Superintelligenz schaffen werden, die klüger als Menschen ist, müssen wir uns einem ernsthaften Problem stellen, dem Problem der Kontrolle. Futuristen und Theoretiker der künstlichen Intelligenz konnten noch nicht erklären, wie wir ISI nach seiner Gründung verwalten und eindämmen können. Es ist auch unklar, wie wir sicherstellen können, dass er freundlich zu Menschen ist. In jüngerer Zeit schlugen Forscher am Georgia Institute of Technology (USA) naiv vor, dass KI menschliche Werte und das Wissen über soziale Normen durch einfaches Lesen einfacher Märchen lernen und aufnehmen könne. Ja, ja, einfache Kindergeschichten und Geschichten, die uns Eltern in der Kindheit vorlesen. In Wirklichkeit wird sich jedoch alles als viel komplizierter herausstellen.

"Für das Problem der Kontrolle künstlicher Intelligenz wurden viele sogenannte" Lösungen "vorgeschlagen", sagt Stuart Armstrong.

Ein Beispiel für solche Lösungen kann sein, das ISI so zu programmieren, dass es ständig versucht, einer Person zu gefallen oder zu gefallen. Eine Alternative wäre, Konzepte wie Liebe oder Respekt in den Quellcode zu integrieren. Und um eine solche Entwicklung des Szenarios zu vermeiden, nach dem die KI all diese Konzepte vereinfachen und diese Welt durch das Prisma dieser stark vereinfachten Konzepte wahrnehmen kann und sie nur in Schwarzweiß unterteilt, kann sie so programmiert werden, dass sie die intellektuelle, kulturelle und soziale Vielfalt versteht und akzeptiert.

Die drei von Isaac Asimov geschaffenen Gesetze der Robotik passen perfekt zum Konzept der Fiktion, aber in Wirklichkeit brauchen wir etwas umfassenderes, um das Problem der Kontrolle anzugehen

Image
Image

Leider sind diese Lösungen zu einfach und sehen aus wie ein Versuch, die gesamte Komplexität menschlicher Vorlieben und Abneigungen in eine allgemeine Definition oder ein allgemeines Konzept zu integrieren, oder ein Versuch, die gesamte Komplexität menschlicher Werte in ein Wort, eine Phrase oder eine Idee zu integrieren. Versuchen Sie beispielsweise, innerhalb dieses Rahmens eine einheitliche und angemessene Definition für so etwas wie "Respekt" zu finden.

„Natürlich sollte man nicht denken, dass solche einfachen Optionen völlig nutzlos sind. Viele von ihnen bieten einen guten Grund zum Nachdenken und regen möglicherweise die Suche nach einer Lösung für das ultimative Problem an “, sagt Armstrong.

"Aber wir können uns nicht allein auf sie verlassen, ohne komplexere Arbeiten, ohne klare Forschung und ohne die Konsequenzen bestimmter Lösungen zu suchen."

Wir werden durch künstliche Superintelligenz zerstört

Niemand kann garantieren, dass KI uns eines Tages zerstören wird, so wie niemand mit Sicherheit sagen kann, dass wir keine Wege finden werden, KI für unsere eigenen Zwecke zu kontrollieren und zu nutzen. Wie der amerikanische Experte für künstliche Intelligenz Eliezer Yudkowski einmal sagte: "KI kann dich nicht lieben oder hassen, aber du bist aus Atomen gemacht, die sie für etwas anderes verwenden könnte."

Der Oxford-Philosoph Nick Bostrom schreibt in seinem Buch "Superintelligenz: Wege, Gefahren und Strategien", dass echte Superintelligenz eines Tages in der Lage sein wird, sich selbst zu verwirklichen, was sie gefährlicher macht als jede Erfindung, die jemals vom Menschen geschaffen wurde. Prominente moderne Denker wie Elon Musk, Bill Gates und Stephen Hawking (von denen viele glauben, dass "KI der schlimmste Fehler in der Geschichte der Menschheit sein könnte") stimmen dieser Meinung eher zu und schlagen bereits Alarm.

Peter McIntyer glaubt, dass für die meisten Aufgaben, die die Superintelligenz sich stellen kann, die Menschen wie eine zusätzliche Verbindung aussehen werden.

„AI wird eines Tages zu dem Schluss kommen können - und es sollte beachtet werden, dass dies ganz richtig berechnet wird -, dass die Menschen es nicht nutzen wollen, um die Rentabilität eines bestimmten Unternehmens um jeden Preis zu maximieren, unabhängig von den Folgen für Verbraucher, Umwelt und Lebewesen. Daher wird er einen großen Anreiz haben, einen Plan und eine Strategie zu entwickeln, dank derer eine Person die Lösung der Aufgabe nicht durch Ändern oder sogar Ausschalten der KI stören kann."

Laut McIntyer werden die Aufgaben der KI, wenn sie genau das Gegenteil von unseren sind, ausgezeichnete Gründe dafür liefern, dass wir sie nicht aufhalten lassen. Und wenn wir bedenken, dass das Niveau seiner Intelligenz viel höher sein wird als das unsere, wird es wirklich sehr, sehr schwierig sein, ihn aufzuhalten, wenn es überhaupt möglich ist.

Es ist jedoch jetzt unmöglich, etwas mit Sicherheit zu sagen, und niemand wird sagen können, mit welcher Form von KI wir umgehen müssen und wie sie die Menschheit bedrohen kann. Wie Elon Musk einmal sagte, könnte KI tatsächlich verwendet werden, um andere KI zu steuern, zu verfolgen und zu steuern. Und vielleicht werden menschliche Werte und eine anfängliche Freundlichkeit gegenüber den Menschen eingeführt.

Künstliche Superintelligenz wird freundlich sein

Der Philosoph Immanuel Kant glaubte, dass Intelligenz stark mit den Prinzipien der Moral verbunden ist. In seiner Arbeit Singularity: A Philosophical Analysis hat der Neurowissenschaftler David Chalmers Kants berühmte Idee als Grundlage genommen und versucht, sie zur Analyse der Bildung künstlicher Superintelligenz anzuwenden.

Image
Image

„Wenn die in diesem Papier beschriebenen Prinzipien korrekt sind, sollte man zusammen mit der scharfen Entwicklung der KI eine scharfe Entwicklung der moralischen Prinzipien erwarten. Die Weiterentwicklung wird zur Entstehung von ISI-Systemen führen, die über Supermoral und Superintelligenz verfügen. Deshalb sollten wir nur wohlwollende Eigenschaften von ihrer Seite erwarten."

Die Wahrheit ist, dass die Idee einer fortgeschrittenen KI mit moralischen Prinzipien und außergewöhnlicher Tugend kein Wasser hält. Wie Armstrong betont, ist die Welt voller kluger Kriegsverbrecher. Intellekt und Moral in einer Person zum Beispiel sind in keiner Weise miteinander verbunden, daher stellt der Wissenschaftler die Frage, ob eine solche Beziehung in anderen Formen der Intelligenz bestehen wird.

„Kluge Menschen, die sich unmoralisch verhalten, verursachen weitaus mehr Probleme und Schmerzen als ihre weniger intelligenten Kollegen. Intelligenz gibt ihnen die Möglichkeit, ihre schlechten und nicht ihre guten Handlungen differenzierter zu gestalten “, sagt Armstrong.

McIntyre erklärt, dass die Fähigkeit eines Agenten, eine bestimmte Aufgabe zu erfüllen, nichts mit dieser Aufgabe zu tun hat.

„Wir werden sehr glücklich sein, wenn unsere KIs moralischer werden und nicht nur klug. Sich auf das Glück zu verlassen, ist natürlich das Letzte in dieser Angelegenheit, aber vielleicht ist es das Glück, das unsere Position in der Zukunft bestimmt “, sagt der Forscher.

Die mit KI und Robotik verbundenen Risiken sind gleich

Dies ist ein besonders häufiges Missverständnis, das in den Medien sowie in Hollywood-Blockbustern wie The Terminator verwendet wird.

Image
Image

Wenn künstliche Superintelligenz wie Skynet wirklich die gesamte Menschheit zerstören will, ist es unwahrscheinlich, dass paramilitärische Androiden mit Maschinengewehren in jeder Hand eingesetzt werden. Sein listiges und effizientes Denken wird es ihm ermöglichen zu verstehen, dass es viel bequemer sein wird, beispielsweise eine neue Art von biologischer Pest oder beispielsweise eine nanotechnologische Katastrophe zu verwenden. Oder vielleicht nimmt er einfach die Atmosphäre unseres Planeten und zerstört sie. KI ist potenziell gefährlich, nicht nur, weil ihre Entwicklung eng mit der Entwicklung der Robotik zusammenhängt. Der Grund für seine potenzielle Gefahr liegt in den Methoden und Mitteln, mit denen er der Welt seine Anwesenheit erklären kann.

Die in Science Fiction vorgestellte KI spiegelt unsere Zukunft wider

Ohne Zweifel nutzen Schriftsteller und Science-Fiction-Autoren seit vielen Jahren die Science-Fiction-Umgebung als Sprungbrett für Vermutungen über unsere wahre Zukunft, aber die tatsächliche Schaffung von ISI und die wirklichen Konsequenzen davon liegen immer noch außerhalb des Horizonts unseres wirklichen Wissens. Darüber hinaus erlaubt uns eine solche künstliche und eindeutig unmenschliche Natur der KI nicht einmal, mit irgendeiner Genauigkeit anzunehmen, was diese KI tatsächlich sein wird.

Image
Image

In den meisten Science-Fiction-Werken ist die KI dem Menschen so nahe wie möglich.

„Vor uns liegt tatsächlich ein ganzes Spektrum der unterschiedlichsten Arten von Geist. Auch wenn wir nur die menschliche Form annehmen. Zum Beispiel ist Ihr Geist alles andere als identisch mit dem Ihres Nachbarn. Dieser Vergleich ist jedoch nur ein Tropfen auf den heißen Stein der möglichen Vielfalt der Köpfe, die es geben könnte “, sagt McIntyre.

Die meisten Science-Fiction-Fiktionen sind natürlich in erster Linie dazu gedacht, eine Geschichte zu erzählen, um nicht so wissenschaftlich überzeugend wie möglich zu sein. Wenn es umgekehrt wäre (Wissenschaft ist wichtiger als die Handlung), wäre es uninteressant, solchen Arbeiten zu folgen.

„Stellen Sie sich vor, wie langweilig all diese Geschichten wären, wenn KI ohne Selbstbewusstsein, die Fähigkeit, sich zu freuen, zu lieben oder zu hassen, alle Menschen praktisch ohne Widerstand zerstört, um ihr Ziel zu erreichen, was übrigens auch nicht sehr interessant sein könnte für den Leser oder Betrachter “, kommentiert Armstrong.

KI wird unsere Jobs annehmen

Die Fähigkeit von AI, die Prozesse, die wir manuell ausführen, zu automatisieren, und das Potenzial, die gesamte Menschheit zu zerstören, sind nicht dasselbe. Laut Martin Ford, Autor von Rise of the Robots: Technologie und die Bedrohung einer arbeitslosen Zukunft, wird jedoch häufig versucht, diese Konzepte zu vergleichen und zu einem zusammenhängenden Ganzen zu kombinieren. Natürlich ist es großartig, dass wir versuchen, die Konsequenzen der bisherigen Schaffung von KI zu antizipieren, aber nur, wenn diese Bemühungen uns nicht von den Problemen ablenken, mit denen wir in ein paar Jahrzehnten konfrontiert sein könnten, wenn wir nichts tun. Und eines der Hauptprobleme dieser Art ist die Massenautomatisierung.

Image
Image

Nur wenige würden argumentieren, dass eine der Herausforderungen der künstlichen Intelligenz darin bestehen wird, einen Weg zu finden, um viele Jobs zu automatisieren, von Fabrikjobs bis hin zu Angestelltenjobs. Einige Experten sagen voraus, dass die Hälfte aller Jobs, zumindest in den USA, in naher Zukunft automatisiert werden könnte.

Dies bedeutet jedoch keineswegs, dass wir solche Änderungen nicht akzeptieren können. Es ist wichtig zu verstehen, dass der Wunsch, sich von unnötigem physischen und psychischen Stress bei der Arbeit zu befreien, schon lange ein Traum unserer menschlichen Spezies ist.

„In einigen Jahrzehnten wird die KI tatsächlich Menschen in vielen Berufen ersetzen. Und das ist eigentlich sehr gut. Zum Beispiel werden selbstfahrende Autos Trucker ersetzen, was wiederum nicht nur die Kosten für den Versand von Waren senkt, sondern auch die Kosten für die Waren selbst. Wenn Sie als LKW-Fahrer arbeiten, bleiben Sie natürlich das Extrem, aber in diesem Fall erhalten alle anderen eher eine Erhöhung ihrer Gehälter. Und je mehr dieses Geld gespart werden kann, desto mehr kann dieses Geld für andere Waren und Dienstleistungen ausgegeben werden, mit denen die Menschen an ihren Arbeitsplätzen beschäftigt sind."

Künstliche Intelligenz wird höchstwahrscheinlich nach neuen Wegen des Wohlbefindens suchen und Menschen ernähren, während sie andere Dinge tun. Fortschritte in der KI-Entwicklung werden von Erfolgen in anderen Bereichen begleitet. Besonders im verarbeitenden Gewerbe. All dies dürfte in Zukunft die Befriedigung unserer Grundbedürfnisse eher erheblich vereinfachen als erschweren.

Empfohlen: