Wann Verdienen Roboter Und Künstliche Intelligenz Menschenrechte? - Alternative Ansicht

Inhaltsverzeichnis:

Wann Verdienen Roboter Und Künstliche Intelligenz Menschenrechte? - Alternative Ansicht
Wann Verdienen Roboter Und Künstliche Intelligenz Menschenrechte? - Alternative Ansicht

Video: Wann Verdienen Roboter Und Künstliche Intelligenz Menschenrechte? - Alternative Ansicht

Video: Wann Verdienen Roboter Und Künstliche Intelligenz Menschenrechte? - Alternative Ansicht
Video: Werden Roboter uns ersetzen? Antworten von Olaf Schubert | heute-show vom 27.04.2018 2024, Kann
Anonim

Filme und Fernsehserien wie Blade Runner, People und Westworld, in denen sie uns High-Tech-Roboter zeigen, die keine Rechte haben, müssen Menschen mit Gewissen beunruhigen. Schließlich zeigen sie nicht nur unsere äußerst aggressive Haltung gegenüber Robotern, sie beschämen uns tatsächlich als Spezies. Wir alle sind es gewohnt zu denken, dass wir besser sind als die Charaktere, die wir auf dem Bildschirm sehen, und wenn die Zeit gekommen ist, werden wir die richtigen Schlussfolgerungen ziehen und uns mit intelligenten Maschinen mit großem Respekt und Würde verhalten.

Mit jedem Schritt des Fortschritts in der Robotik und der Entwicklung der künstlichen Intelligenz nähern wir uns dem Tag, an dem Maschinen die menschlichen Fähigkeiten in jedem einzelnen Aspekt der Intelligenz, des Bewusstseins und der Emotionen erfüllen. Wenn dies geschieht, müssen wir uns entscheiden - vor uns befindet sich ein Objekt des Niveaus des Kühlschranks oder eine Person. Und sollten wir ihnen gleichwertige Menschenrechte, Freiheiten und Schutz gewähren?

Image
Image

Diese Frage ist sehr umfangreich, und es wird nicht möglich sein, sie trotz aller Wünsche sofort zu klären. Es muss unter verschiedenen Gesichtspunkten - Ethik, Soziologie, Recht, Neurobiologie und KI-Theorie - sofort betrachtet und gelöst werden. Aber aus irgendeinem Grund scheint es schon jetzt überhaupt nicht so zu sein, dass alle diese Parteien zu einem gemeinsamen Schluss kommen, der für alle passt.

Warum überhaupt KI stärken?

Erstens müssen wir zugeben, dass wir uns bereits zur Moral neigen, wenn wir Roboter sehen, die uns sehr ähnlich sind. Je intellektuell entwickelter und "lebendiger" Maschinen aussehen, desto mehr werden wir glauben wollen, dass sie wie wir sind, auch wenn sie es nicht sind.

Sobald Maschinen grundlegende menschliche Fähigkeiten haben, ob wir sie mögen oder nicht, müssen wir sie als sozial gleichwertig und nicht nur als eine Sache, als das Privateigentum eines Menschen betrachten. Die Schwierigkeit wird in unserem Verständnis der kognitiven Merkmale oder Merkmale liegen, wenn Sie so wollen, mit denen es möglich sein wird, die vor uns liegende Entität unter dem Gesichtspunkt der Moral zu bewerten und daher die Frage der sozialen Rechte dieser Entität zu berücksichtigen. Philosophen und Ethiker haben seit Tausenden von Jahren mit diesem Problem zu kämpfen.

Werbevideo:

„Es gibt drei wichtige ethische Schwellenwerte: die Fähigkeit, Schmerz und Empathie zu erfahren, Selbstbewusstsein und die Fähigkeit, Dinge aus moralischer Sicht zu sehen und angemessene Entscheidungen zu treffen“, sagt der Soziologe, Futurist und Leiter des Instituts für Ethik und neue Technologien James Hughes.

„Wenn Sie Glück haben, entwickeln sich bei Menschen alle drei dieser absolut wichtigen Aspekte nacheinander und schrittweise. Was aber, wenn aus Sicht der Maschinenintelligenz angenommen wird, dass ein Roboter, der kein Selbstbewusstsein besitzt, keine Freude oder Schmerzen empfindet, auch das Recht hat, Bürger genannt zu werden? Wir müssen herausfinden, ob dies tatsächlich der Fall ist."

Es ist wichtig zu verstehen, dass Intelligenz, Sensibilität (die Fähigkeit, Dinge wahrzunehmen und zu fühlen), Bewusstsein und Selbstbewusstsein (Selbstbewusstsein im Gegensatz zu anderen) völlig unterschiedliche Dinge sind. Maschinen oder Algorithmen können genauso intelligent (wenn nicht sogar intelligenter) sein als Menschen, aber diese drei wesentlichen Bestandteile fehlen. Taschenrechner, Siri, Aktienalgorithmen - alle sind sicherlich schlau, aber sie können sich nicht selbst realisieren, sie können nicht fühlen, zeigen Emotionen, fühlen Farben, Geschmack von Popcorn.

Laut Hughes kann sich das Selbstbewusstsein zusammen mit der Ausstattung des Wesens mit minimalen Persönlichkeitsrechten manifestieren, wie dem Recht, frei zu sein, kein Sklave, dem Recht auf Eigeninteresse am Leben, dem Recht auf Wachstum und Selbstverbesserung. Beim Erwerb von Selbstbewusstsein und moralischen Grundlagen (der Fähigkeit, nach den moralischen Grundsätzen der modernen Gesellschaft zu unterscheiden, was gut und was schlecht ist) sollte diese Einheit mit vollwertigen Menschenrechten ausgestattet sein: dem Recht, Vereinbarungen zu schließen, dem Recht, Eigentum zu besitzen, zu wählen und so weiter.

"Die Grundwerte der Aufklärung verpflichten uns, diese Merkmale von einer Position der Gleichheit aller vor allen aus zu betrachten und die radikal konservativen Ansichten aufzugeben, die zuvor allgemein akzeptiert wurden und beispielsweise nur Menschen mit einem bestimmten sozialen, geschlechtsspezifischen oder territorialen Hintergrund Rechte einräumten", sagt Hughes.

Offensichtlich hat unsere Zivilisation noch keine hohen sozialen Ziele erreicht, da wir unsere eigenen Rechte immer noch nicht verstehen können und immer noch versuchen, sie zu erweitern.

Wer hat das Recht, als "Person" bezeichnet zu werden?

Alle Menschen sind Individuen, aber nicht alle Individuen sind Menschen. Linda MacDonald-Schlenn, Bioethikspezialistin an der University of California in Monterey Bay und Dozentin am Alden Martha Institut für Bioethik am Albany Medical Center, sagt, dass es bereits Präzedenzfälle im Gesetz gibt, in denen nichtmenschliche Fächer als Rechtsfächer behandelt werden. Und dies ist ihrer Meinung nach eine sehr große Leistung, da wir damit die Grundlage schaffen, um die Möglichkeit zu eröffnen, KI in Zukunft mit eigenen Rechten auszustatten, die den Menschenrechten entsprechen.

„In den USA haben alle Unternehmen Rechtspersönlichkeit. In anderen Ländern gibt es auch Präzedenzfälle, in denen sie versuchen, die Verbindung und Gleichheit aller Lebewesen auf diesem Planeten anzuerkennen. In Neuseeland beispielsweise gelten alle Tiere gesetzlich als intelligent, und die Regierung fördert aktiv die Entwicklung von Wohlfahrts- und Verhaltenskodizes. Der Oberste Gerichtshof von Indien nannte die Flüsse Ganges und Yamuna "Lebewesen" und gab ihnen den Status einer getrennten juristischen Person."

Darüber hinaus unterliegen in den Vereinigten Staaten wie in mehreren anderen Ländern bestimmte Tierarten, darunter Menschenaffen, Elefanten, Wale und Delfine, erweiterten Rechten zum Schutz vor Inhaftierung, Experimenten und Missbrauch. Aber im Gegensatz zu den ersten beiden Fällen, in denen sie Unternehmen und Flüsse unter die Persönlichkeit nehmen wollen, scheint die Frage der Tiere überhaupt kein Versuch zu sein, gesetzliche Normen zu unterwerfen. Befürworter dieser Vorschläge befürworten die Unterstützung einer realen Person, dh einer Person, die anhand ihrer bestimmten kognitiven (mentalen) Fähigkeiten wie Selbstbewusstsein charakterisiert werden kann.

MacDonald-Glenn sagt, es sei in solchen Angelegenheiten wichtig, die konservative Sichtweise aufzugeben und nicht mehr daran zu denken, ob es sich um Tiere oder KI handelt, nur um seelenlose Kreaturen und Maschinen. Emotionen sind kein Luxus, sagt ein Bioethikspezialist, sondern ein wesentlicher Bestandteil des rationalen Denkens und des sozialen Verhaltens. Es sind diese Merkmale und nicht die Fähigkeit, Zahlen zu zählen, die eine entscheidende Rolle bei der Entscheidung über die Frage spielen sollten, wer oder was das Recht auf eine moralische Beurteilung haben sollte.

In der Wissenschaft gibt es zunehmend Hinweise auf eine emotionale Veranlagung bei Tieren. Die Beobachtung von Delfinen und Walen zeigt, dass sie zumindest Traurigkeit zeigen können, und das Vorhandensein von Spindelzellen (Interneuronen, die entfernte Neuronen verbinden und an komplexen Prozessen teilnehmen, die das Sozialverhalten aktivieren) kann unter anderem darauf hinweisen, dass sie dazu in der Lage sind einfühlen. Wissenschaftler beschreiben auch die Manifestation verschiedener emotionaler Verhaltensweisen bei Affen und Elefanten. Es ist möglich, dass eine bewusste KI auch diese emotionalen Fähigkeiten erwerben kann, was natürlich ihren moralischen Status erheblich erhöht.

„Die Verbreitung des moralischen Status nur auf diejenigen zu beschränken, die rational denken, kann mit KI arbeiten, aber gleichzeitig bewegt sich diese Idee gegen die moralische Intuition. Schließlich schützt unsere Gesellschaft bereits diejenigen, die nicht rational denken können: Neugeborene, Menschen im Koma, Menschen mit erheblichen körperlichen und geistigen Problemen. In letzter Zeit wurden Tierschutzgesetze aktiv gefördert “, sagt MacDonald-Glenn.

In der Frage, wer moralischen Status erhalten sollte, stimmte MacDonald-Glenn dem englischen Moralphilosophen Jeremiah Bentham aus dem 18. Jahrhundert zu, der einmal sagte:

„Die Frage ist nicht, ob sie argumentieren können? Oder können sie sprechen? Aber können sie leiden?"

Kann eine Maschine Selbstbewusstsein erlangen?

Natürlich sind sich nicht alle einig, dass sich die Menschenrechte auch auf Nicht-Menschen erstrecken, selbst wenn diese Subjekte in der Lage sind, Fähigkeiten wie Emotionen oder selbstreflexives Verhalten zu zeigen. Einige Denker argumentieren, dass nur Menschen das Recht erhalten sollten, an sozialen Beziehungen teilzunehmen, und die ganze Welt dreht sich direkt um Homo sapiens, und alles andere - Ihre Spielekonsole, Ihr Kühlschrank, Ihr Hund oder Ihr Android-Gesprächspartner - ist „alles andere“.

Ein Anwalt, ein amerikanischer Schriftsteller und ein hochrangiger Mitarbeiter des Wesley J. Smith-Instituts für menschlichen Exzeptionalismus sind der Ansicht, dass wir selbst noch keine universellen Menschenrechte erhalten haben, und es ist umso verfrüht, über glänzende Eisenstücke und ihre Rechte nachzudenken.

"Keine Maschine sollte jemals als potenzieller Inhaber von Rechten angesehen werden", sagt Smith.

„Selbst die fortschrittlichsten Maschinen bleiben und bleiben Maschinen. Dies ist kein Lebewesen. Dies ist kein lebender Organismus. Eine Maschine wird immer nur eine Reihe von Programmen sein, eine Reihe von Code, unabhängig davon, ob sie von einem Menschen oder einem anderen Computer erstellt oder sogar unabhängig programmiert wurde."

Seiner Meinung nach sollten nur Menschen und Humanressourcen als Individuen betrachtet werden.

"Wir haben Verantwortung gegenüber Tieren, die zu Unrecht leiden, aber auch sie sollten niemals als jemand angesehen werden", bemerkt Smith.

Hier sollten wir eine kleine Bemerkung machen und den russischsprachigen Leser daran erinnern, dass Tiere im Westen als leblose Objekte gelten. Daher ist es oft möglich, das Pronomen "es" (dh "es") zu finden und nicht "sie" oder "er" (dh "sie" oder "er"), wenn es um ein bestimmtes Tier geht. Diese Regel wird normalerweise nur in Bezug auf Haustiere - Hunde, Katzen und sogar Papageien - ignoriert, in denen Haushalte volle und volle Familienmitglieder sehen. Smith weist jedoch darauf hin, dass das Konzept eines Tieres als „vernünftiges Privateigentum“bereits eine wertvolle Kennung ist, da es „uns dafür verantwortlich macht, es auf eine Weise zu verwenden, die es nicht verletzt. Am Ende sind "Treten des Hundes" und "Treten des Kühlschranks" zwei große Unterschiede."

Ein offensichtlich kontroverser Punkt in Smiths Analyse ist die Annahme, dass Menschen oder biologische Organismen bestimmte "Eigenschaften" haben, die eine Maschine niemals erwerben kann. In früheren Epochen waren diese übersehenen Merkmale die Seele, der Geist oder eine immaterielle übernatürliche Lebenskraft. Die Vitalismustheorie postuliert, dass Prozesse in biologischen Organismen von dieser Kraft abhängen und nicht in Bezug auf Physik, Chemie oder Biochemie erklärt werden können. Unter dem Druck von Praktikern und Logikern, die es nicht gewohnt sind, die Arbeit unseres Gehirns mit übernatürlichen Kräften zu verbinden, verlor es jedoch schnell seine Relevanz. Und doch ist die Meinung, dass eine Maschine niemals so denken und fühlen kann wie Menschen, selbst unter Wissenschaftlern fest verankert, was nur einmal die Tatsache widerspiegelt, dassdass das Verständnis der biologischen Grundlagen des Selbstbewusstseins bei Menschen noch lange nicht ideal und sehr begrenzt ist.

Lori Marino, Dozentin für Neurowissenschaften und Verhaltensbiologie (Ethologie) am Emory Center for Ethics, sagt, dass Maschinen wahrscheinlich niemals Rechte erhalten werden, geschweige denn Menschenrechte. Der Grund dafür sind die Ergebnisse von Neurowissenschaftlern wie Antonio Damasio, der glaubt, dass das Bewusstsein nur dadurch bestimmt wird, ob das Subjekt ein Nervensystem mit Kanälen hat, die angeregte Ionen übertragen, oder, wie Marino selbst sagt, positiv geladene Ionen, die durch die Zellmembranen im Inneren gelangen nervöses System.

„Diese Art der neuronalen Übertragung findet sich selbst in den einfachsten lebenden Organismen - Prostituierten und Bakterien. Und dies ist derselbe Mechanismus, der die Entwicklung von Neuronen, dann des Nervensystems und dann des Gehirns initiiert hat “, sagt Marino.

„Wenn wir über Roboter und KI sprechen, dann gehorcht zumindest ihre aktuelle Generation der Bewegung negativ geladener Ionen. Das heißt, wir sprechen über zwei völlig unterschiedliche Seinsmechanismen. “

Wenn Sie dieser Logik folgen, möchte Marino sagen, dass selbst eine Qualle mehr Gefühle hat als jeder der komplexesten Roboter in der Geschichte.

"Ich weiß nicht, ob diese Hypothese richtig ist oder nicht, aber es ist definitiv eine Frage, die zu berücksichtigen ist", sagt Marino.

„Außerdem spielt Neugierde in mir eine Rolle und versucht herauszufinden, wie genau sich ein‚ lebender Organismus 'von einer wirklich komplexen Maschine unterscheiden kann. Dennoch glaube ich, dass den Tieren zunächst ein Rechtsschutz gewährt werden sollte und erst dann die Wahrscheinlichkeit der Bereitstellung von Gegenständen, bei denen es sich aus meiner Sicht natürlich um Roboter handelt, berücksichtigt werden sollte.

David Chalmers, Direktor des Zentrums für das Studium von Geist, Gehirn und Bewusstsein an der New York University, sagt, es sei sehr schwierig, genaue Schlussfolgerungen aus dieser ganzen Theorie zu ziehen. Hauptsächlich aufgrund der Tatsache, dass all diese Ideen im gegenwärtigen Zustand noch nicht weit verbreitet sind und daher weit über den Umfang der Beweise hinausgehen.

„Im Moment gibt es keinen Grund zu der Annahme, dass eine spezielle Art der Informationsverarbeitung in Ionenkanälen das Vorhandensein oder Fehlen von Bewusstsein bestimmen sollte. Selbst wenn diese Art der Verarbeitung wesentlich wäre, hätten wir keinen Grund zu der Annahme, dass sie eine spezielle Biologie erfordert und kein allgemein bekanntes Muster der Informationsverarbeitung. Und wenn ja, dann könnte in diesem Fall die Simulation der Informationsverarbeitung durch einen Computer als Bewusstsein betrachtet werden."

Ein anderer Wissenschaftler, der glaubt, dass Bewusstsein kein Rechenprozess ist, ist Stuart Hameroff, Professor für Anästhesiologie und Psychologie an der Universität von Arizona. Seiner Meinung nach ist Bewusstsein ein grundlegendes Phänomen des Universums und allen lebenden und leblosen Wesen inhärent. Gleichzeitig ist das menschliche Bewusstsein dem Bewusstsein von Tieren, Pflanzen und leblosen Objekten weit überlegen. Hameroff ist ein Befürworter der Theorie des Panpsychismus, die die allgemeine Animation der Natur berücksichtigt. Nach seinen Gedanken ist das einzige Gehirn, das für eine echte subjektive Beurteilung und Selbstbeobachtung anfällig ist, dasjenige, das aus biologischer Materie besteht.

Hameroffs Idee klingt interessant, liegt aber auch außerhalb des Mainstreams der wissenschaftlichen Meinung. Es ist wahr, dass wir immer noch nicht wissen, wie Bewusstsein und Selbstbewusstsein in unserem Gehirn erscheinen. Wir wissen nur, dass es so ist. Ist es daher möglich, es als einen Prozess zu betrachten, der den allgemeinen Regeln der Physik unterliegt? Vielleicht. Nach demselben Marino kann Bewusstsein nicht in einem Strom von "Nullen" und "Einsen" reproduziert werden, aber dies bedeutet nicht, dass wir nicht von dem allgemein akzeptierten Paradigma, das als von Neumann-Architektur bekannt ist, abweichen und ein hybrides KI-System schaffen können, in dem künstliches Bewusstsein besteht wird unter Beteiligung biologischer Komponenten erstellt.

Biopod aus dem Film "Existence"
Biopod aus dem Film "Existence"

Biopod aus dem Film "Existence"

Ed Boyden, Neurowissenschaftler bei der Synthetic Neurobiology Group und Dozent am MIT Media Lab, sagt, wir seien als Spezies zu jung, um solche Fragen zu stellen.

"Ich glaube nicht, dass wir eine funktionale Definition des Bewusstseins haben, die direkt verwendet werden kann, um es zu messen oder künstlich zu erzeugen", sagte Boyden.

„Aus technischer Sicht kann man nicht einmal sagen, ob ich bei Bewusstsein bin. Daher ist es im Moment sehr schwierig zu erraten, ob die Maschinen es finden können."

Boyden glaubt immer noch nicht, dass wir niemals in der Lage sein werden, das Bewusstsein in einer alternativen Hülle (zum Beispiel in einem Computer) wiederherzustellen, räumt jedoch ein, dass es derzeit unter Wissenschaftlern Meinungsverschiedenheiten darüber gibt, was genau für die Schaffung einer solchen Emulation digitaler Intelligenz wichtig sein wird.

"Wir müssen viel mehr arbeiten, um zu verstehen, was genau die Schlüsselverbindung ist", sagt Boyden.

Chalmers wiederum erinnert uns daran, dass wir nicht einmal herausgefunden haben, wie das Bewusstsein in einem lebenden Gehirn erwacht. Was können wir also über Maschinen sagen? Gleichzeitig glaubt er, dass wir immer noch keinen Grund zu der Annahme haben, dass biologische Maschinen Bewusstsein haben können, synthetische nicht.

„Sobald wir verstehen, wie Bewusstsein im Gehirn entsteht, können wir verstehen, wie viele Maschinen dieses Bewusstsein haben können“, kommentiert Chalmers.

Ben Herzel, Leiter von Hanson Robotics und Gründer der OpenCog Foundation, sagt, dass wir bereits interessante Theorien und Modelle dafür haben, wie sich Bewusstsein im Gehirn manifestiert, aber keine von ihnen hat einen gemeinsamen Nenner und enthüllt nicht alle Details.

„Dies ist immer noch eine offene Frage, deren Antwort sich nur hinter wenigen unterschiedlichen Meinungen verbirgt. Das Problem hängt auch mit der Tatsache zusammen, dass viele Wissenschaftler unterschiedliche philosophische Ansätze zur Beschreibung des Bewusstseins verfolgen, obwohl sie mit wissenschaftlichen Fakten und Theorien übereinstimmen, die auf wissenschaftlichen Beobachtungen der Arbeit des Gehirns und der Computer beruhen."

Wie können wir das Bewusstsein einer Maschine bestimmen?

Die Entstehung des Bewusstseins in einer Maschine ist nur eine Frage. Nicht weniger schwierig ist die Frage, wie genau wir das Bewusstsein in einem Roboter oder einer KI erkennen können. Wissenschaftler wie Alan Turing haben dieses Problem jahrzehntelang untersucht und schließlich zu Sprachtests gelangt, um festzustellen, ob ein Befragter bei Bewusstsein ist. Oh, wenn es nur so einfach wäre. Das Fazit ist, dass fortgeschrittene Chatbots (Programme zur Kommunikation mit Menschen) bereits Menschen umkreisen können, die anfangen zu glauben, dass sich eine lebende Person vor ihnen befindet, keine Maschine. Mit anderen Worten, wir brauchen eine effizientere und überzeugendere Art der Überprüfung.

„Die Definition von Individualität in der maschinellen Intelligenz wird durch das Problem des‚ philosophischen Zombies 'kompliziert. Mit anderen Worten, Sie können eine Maschine erstellen, die die menschliche Kommunikation sehr, sehr gut imitiert, aber gleichzeitig keine eigene Identität und kein eigenes Bewusstsein hat “, sagt Hughes.

Die beiden intelligenten Lautsprecher von Google Home machen Smalltalk
Die beiden intelligenten Lautsprecher von Google Home machen Smalltalk

Die beiden intelligenten Lautsprecher von Google Home machen Smalltalk

Wir haben kürzlich ein großartiges Beispiel dafür gesehen, als zwei intelligente Google Home-Lautsprecher miteinander sprachen. All dies wurde gefilmt und live übertragen. Trotz der Tatsache, dass der Grad des Selbstbewusstseins beider Sprecher nicht höher als ein Stein war, ähnelte die Art des Gesprächs, das im Laufe der Zeit intensiver wurde, der Kommunikation zweier humanoider Wesen. Dies wiederum beweist einmal mehr, dass das Problem des Unterschieds zwischen Mensch und KI mit der Zeit nur noch komplizierter und akuter wird.

Eine Lösung besteht laut Hughes nicht nur darin, das Verhalten von KI-Systemen in Tests wie dem Turing-Test zu testen, sondern auch die gesamte interne Komplexität dieses Systems zu analysieren, wie es die Theorie von Giulio Tononi nahe legt. In dieser Theorie wird Bewusstsein als integrierte Information (F) verstanden. Letzteres ist wiederum definiert als die Informationsmenge, die von einem Komplex von Elementen erzeugt wird und die größer ist als die Summe der Informationen, die von einzelnen Elementen erzeugt werden. Wenn Tononis Theorie richtig ist, können wir Ф nicht nur verwenden, um das menschenähnliche Verhalten des Systems zu bestimmen, sondern wir können auch herausfinden, ob es komplex genug ist, um unsere eigene innere menschenähnliche bewusste Erfahrung zu haben. Gleichzeitig zeigt die Theorie, dass selbst bei einem anderen, dem menschlichen Verhalten nicht ähnlichen Verhalten sowie einer anderen DenkweiseDas System kann als bewusst angesehen werden, wenn der Komplex seiner integrierten Informationen die erforderlichen Prüfungen bestehen kann.

„Zu akzeptieren, dass sowohl Börsensysteme als auch computergestützte Sicherheitssysteme Bewusstsein haben können, wäre ein großer Schritt vom Anthropozentrismus entfernt, selbst wenn diese Systeme keinen Schmerz und kein Selbstbewusstsein aufweisen. Dies wird uns wirklich den Weg ebnen, Fragen posthumaner ethischer Normen zu formulieren und zu diskutieren."

Eine andere mögliche Lösung könnte die Entdeckung neuronaler Bewusstseinskorrelate in Maschinen sein. Das heißt, wir sprechen über die Bestimmung der Teile der Maschine, die für die Bewusstseinsbildung verantwortlich sind. Wenn die Maschine solche Teile hat und sich genau wie erwartet verhält, können wir den Bewusstseinsgrad wirklich beurteilen.

Welche Rechte sollten wir Maschinen geben?

Eines Tages wird der Roboter einer Person ins Gesicht sehen und Menschenrechte fordern. Aber wird er sie verdienen? Wie oben erwähnt, kann in diesem Moment ein gewöhnlicher "Zombie" vor uns stehen, der sich so verhält, wie er programmiert wurde, und versucht, uns zu täuschen, um einige Privilegien zu erlangen. An diesem Punkt müssen wir äußerst vorsichtig sein, um nicht auf den Trick hereinzufallen und die unbewusste Maschine zu stärken. Sobald wir herausgefunden haben, wie man den Geist einer Maschine misst und wie man die Ebenen ihres Bewusstseins und Selbstbewusstseins beurteilt, können wir erst dann über die Möglichkeit sprechen, über die Frage nachzudenken, ob der vor uns stehende Agent bestimmte Rechte und Schutz verdient oder nicht.

Zum Glück für uns wird dieser Moment nicht bald kommen. Zunächst müssen KI-Entwickler ein "grundlegendes digitales Gehirn" erstellen, indem sie die Emulation des Nervensystems von Würmern, Käfern, Mäusen, Kaninchen usw. abschließen. Diese Computeremulationen können in der realen Welt als digitale Avatare und Roboter existieren. Sobald dies geschieht, werden diese intelligenten Einheiten keine gewöhnlichen Forschungsobjekte mehr sein und ihren Status zu Subjekten erheben, die zur moralischen Bewertung berechtigt sind. Dies bedeutet jedoch nicht, dass diese einfachen Emulationen automatisch das Äquivalent der Menschenrechte verdienen. Vielmehr muss das Gesetz sie gegen Missbrauch und Missbrauch verteidigen (ähnlich wie Menschenrechtsverteidiger Tiere in Laborexperimenten vor Missbrauch schützen).

Letztendlich entweder durch echte Modellierung bis ins kleinste Detail oder durch den Wunsch herauszufinden, wie unser Gehirn unter rechnerischen, algorithmischen Gesichtspunkten funktioniert, aber die Wissenschaft wird dazu kommen, Computeremulationen des menschlichen Gehirns zu erstellen. Zu diesem Zeitpunkt sollten wir bereits in der Lage sein, das Vorhandensein von Bewusstsein in Maschinen zu bestimmen. Zumindest möchte man das hoffen. Ich möchte nicht einmal glauben, dass wir einen Weg finden können, einen Funken des Bewusstseins im Auto zu wecken, aber gleichzeitig werden wir selbst nicht verstehen, was wir getan haben. Es wird ein wahrer Albtraum.

Sobald Roboter und KI diese grundlegenden Fähigkeiten erlangt haben, muss unser computergestützter Schützling Persönlichkeitstests bestehen. Wir haben immer noch kein universelles "Rezept" für das Bewusstsein, aber die üblichen Messungen sind in der Regel mit der Bewertung des Mindestmaßes an Intelligenz, Selbstkontrolle, Sinn für Vergangenheit und Zukunft, Empathie und der Fähigkeit, freien Willen zu manifestieren, verbunden.

"Wenn Ihre Entscheidungen für Sie vorbestimmt sind, können Sie Entscheidungen, die nicht Ihre eigenen sind, keinen moralischen Wert zuweisen", kommentiert MacDonald-Glenn.

Erst nach Erreichen dieses Schwierigkeitsgrades bei der Bewertung kann die Maschine ein Kandidat für Menschenrechte werden. Es ist jedoch wichtig zu verstehen und zu akzeptieren, dass Roboter und KI mindestens grundlegende Schutzrechte benötigen, wenn sie die Tests bestehen. Zum Beispiel glaubt der kanadische Wissenschaftler und Futurist George Dvorsky, dass Roboter und KI die folgenden Rechte verdienen, wenn sie den Persönlichkeitstest bestehen können:

- das Recht, sich nicht gegen den eigenen Willen zu trennen;

- Das Recht auf uneingeschränkten und vollständigen Zugriff auf Ihren eigenen digitalen Code;

- das Recht, Ihren digitalen Code gegen Ihren Willen vor äußeren Einflüssen zu schützen;

- das Recht, sich selbst zu kopieren (oder nicht zu kopieren);

- Das Recht auf Privatsphäre (nämlich das Recht, den aktuellen psychischen Zustand zu verbergen).

In einigen Fällen kann es sein, dass die Maschine ihre Rechte nicht unabhängig geltend machen kann. Daher muss die Möglichkeit vorgesehen werden, dass Personen (sowie andere Bürger, die keine Personen sind) als Vertreter solcher Kandidaten für Einzelpersonen auftreten können. Es ist wichtig zu verstehen, dass ein Roboter oder eine KI nicht intellektuell und moralisch perfekt sein muss, um eine Persönlichkeitsprüfung bestehen und das Äquivalent der Menschenrechte beanspruchen zu können. Es ist wichtig, sich daran zu erinnern, dass Menschen in diesen Aspekten auch alles andere als ideal sind, sodass die gleichen Regeln auch für intelligente Maschinen gelten. Intelligenz ist im Allgemeinen eine schwierige Sache. Das menschliche Verhalten ist oft sehr spontan, unvorhersehbar, chaotisch, inkonsistent und irrational. Unser Gehirn ist alles andere als ideal, daher müssen wir dies berücksichtigen, wenn wir Entscheidungen über KI treffen.

Gleichzeitig muss eine selbstbewusste Maschine wie jeder verantwortungsbewusste und gesetzestreue Bürger die von der Gesellschaft vorgeschriebenen Gesetze, Normen und Regeln respektieren. Zumindest, wenn sie wirklich eine vollwertige autonome Person und Teil dieser Gesellschaft werden will. Nehmen Sie zum Beispiel Kinder oder geistig behinderte Menschen. Haben sie Rechte? Bestimmt. Aber wir sind für ihre Handlungen verantwortlich. Bei Robotern und KI sollte es genauso sein. Abhängig von ihren Fähigkeiten müssen sie entweder für sich selbst verantwortlich sein oder einen Vormund haben, der nicht nur als Verteidiger ihrer Rechte fungieren kann, sondern auch die Verantwortung für ihre Handlungen übernimmt.

Wenn Sie diese Frage ignorieren

Sobald unsere Maschinen eine bestimmte Komplexität erreicht haben, können wir sie aus Sicht der Gesellschaft, der Machtinstitutionen und des Rechts nicht länger ignorieren. Wir werden keinen zwingenden Grund haben, ihnen die Menschenrechte zu verweigern. Andernfalls kommt es zu Diskriminierung und Sklaverei.

Die Schaffung einer klaren Grenze zwischen biologischen Wesen und Maschinen wird wie ein klarer Ausdruck menschlicher Überlegenheit und ideologischen Chauvinismus aussehen - biologische Menschen sind etwas Besonderes, und nur biologische Intelligenz ist von Bedeutung.

„Wenn wir unseren Wunsch oder unsere Abneigung berücksichtigen, die Grenzen unserer Moral und die Quintessenz des Konzepts der Individualität zu erweitern, wird die wichtige Frage so klingen: Welche Art von Menschen wollen wir sein? Befolgen wir auch in dieser Angelegenheit die „goldene Regel“(tun Sie anderen gegenüber so, wie Sie mit Ihnen behandelt werden möchten) oder ignorieren wir unsere eigenen moralischen Werte? “- fragt MacDonald-Glenn.

KI-Empowerment wird ein wichtiger Präzedenzfall in der Geschichte der Menschheit sein. Wenn wir KI als sozial gleichberechtigte Individuen betrachten können, wird dies ein direkter Ausdruck unseres sozialen Zusammenhalts und ein Beweis für unsere Unterstützung für einen Sinn für Gerechtigkeit sein. Unser Versäumnis, dieses Problem zu lösen, könnte zu einem allgemeinen sozialen Protest und vielleicht sogar zu einer Konfrontation zwischen KI und Menschen führen. Angesichts des überlegenen Potenzials der Maschinenintelligenz könnte dies für letztere eine echte Katastrophe sein.

Es ist auch wichtig zu wissen, dass die Achtung der Rechte von Robotern in Zukunft auch für andere Personen von Vorteil sein kann: Cyborgs, transgene Menschen mit fremder DNA sowie Menschen mit kopierten, digitalisierten und in Supercomputer geladenen Gehirnen.

Wir sind noch weit davon entfernt, eine Maschine zu schaffen, die Menschenrechte verdient. Wenn man jedoch bedenkt, wie komplex das Problem ist und worum es genau geht - sowohl für die künstliche Intelligenz als auch für den Menschen -, kann man kaum sagen, dass eine vorausschauende Planung unnötig ist.

NIKOLAY KHIZHNYAK