Künstliche Intelligenz: Ein Gefährlicher Feind Oder Ein Freundlicher Helfer - Alternative Ansicht

Künstliche Intelligenz: Ein Gefährlicher Feind Oder Ein Freundlicher Helfer - Alternative Ansicht
Künstliche Intelligenz: Ein Gefährlicher Feind Oder Ein Freundlicher Helfer - Alternative Ansicht

Video: Künstliche Intelligenz: Ein Gefährlicher Feind Oder Ein Freundlicher Helfer - Alternative Ansicht

Video: Künstliche Intelligenz: Ein Gefährlicher Feind Oder Ein Freundlicher Helfer - Alternative Ansicht
Video: Künstliche Intelligenz: Freund oder Feind? | DW Deutsch 2024, Kann
Anonim

Der Einsatz künstlicher Intelligenz (KI) im Alltag gewinnt rasch an Dynamik, doch dieser Trend gibt Fachleuten zunehmend Anlass zur Sorge. Die Mitarbeiter der New York University haben einen Warnhinweis zu den Risiken der Verwendung von I. I. erstellt. Die Autoren konzentrierten sich größtenteils auf ethische und soziale Fragen sowie auf die mangelnde Regulierung. Der Bericht der AI Now-Gruppe sagt wenig Neues aus, aber in der Weltpraxis wird die Frage nach der Notwendigkeit, die Arbeit des künstlichen Denkens einzuschränken, zunehmend aufgeworfen.

Fast alle Visionäre des technologischen Fortschritts sprachen über die potenziellen Bedrohungen für die KI. Stephen Hawking äußerte im November letzten Jahres die wichtigsten Befürchtungen, die mit Überlegungen zur Entwicklung der Technologie einhergingen. Nach seiner Meinung werden Computer früher oder später lernen, sich selbst zu reproduzieren. Biologische Kreaturen verlieren wahrscheinlich sowohl in Bezug auf ihre geistigen Fähigkeiten als auch in Bezug auf die Anpassungsfähigkeit an die Umwelt, insbesondere auf einem anderen Planeten, an Siliziumintelligenz. Früher oder später werden intelligente Roboter Menschen als veraltete Form betrachten und sie loswerden wollen.

Hawkings Worte klingen immer noch wie eine Horrorgeschichte, die Dutzende Male in Filmen und Büchern gespielt wird, aber selbst diejenigen, die an der Implementierung intelligenter Systeme arbeiten, haben zunehmend Angst vor der Zukunft mit KI, obwohl es solche gibt, die solche Befürchtungen für verfrüht halten. "Die heutige Entwicklung der KI zu befürchten, ist wie sich Sorgen um die Überbevölkerung des Mars zu machen", sagte Andrew Ng, Leiter von Google Brain. Er beruhigte jedoch nicht alle.

Image
Image

Unter den größten Phobien, die mit der Einführung eines Computers in allen Lebensbereichen verbunden sind, sind drei erwähnenswert. Erstens wird der Computergeist als Kriegswaffe eingesetzt, die selbst Atomwaffen mit zerstörerischer Kraft deutlich übertreffen wird. Die zweite ist, dass KI Menschen versklaven wird. Drittens ist der Computer wie jede menschliche Schöpfung fehleranfällig. Alle drei Punkte können ausführlicher besprochen werden.

Am 21. August 2017 schickten führende Experten auf dem Gebiet der Forschung und Implementierung künstlicher Intelligenz, darunter die Leiter von Unternehmen wie SpaceX und Deep Mind, einen offenen Brief an die Vereinten Nationen. Im Text warnten sie die Weltgemeinschaft vor der Entwicklung tödlicher autonomer Waffen, seien es Roboter oder andere Mechanismen, die den Feind töten sollen. Die Autoren des Dokuments machten auf die fatalen Folgen des Einsatzes solcher Waffen aufmerksam. Mit seiner phänomenalen Wirksamkeit ist es fair zu fragen, in wessen Hände es fallen wird. Es kann sowohl von einem engen Kreis von Eliten als auch von Terroristen genutzt werden.

Die Autoren des Schreibens forderten die Kontrollorganisation und damit die wissenschaftliche Gemeinschaft auf, den Umfang des schädlichen Einsatzes von KI zu skizzieren. Die Verantwortung eines Menschen für seine eigene Schöpfung verpflichtet ihn, ernsthafte Arbeiten zur Vermeidung von Risiken durchzuführen. Zusätzlich zu den Gesetzen müssen ihre Schöpfer auch die Leistung von Robotern einschränken, die sich überlegen müssen, wie Maschinen in extremen Fällen ausgeschaltet werden können.

Image
Image

Werbevideo:

Der politische Missbrauch elektronischer Systeme wurde bereits durch die Arbeit sozialer Netzwerke und Datenanalysealgorithmen demonstriert. Im Frühjahr dieses Jahres donnerte ein Skandal mit Cambridge Analytica in der Welt. Die Spezialisten führten eine eingehende Analyse der Benutzerdaten durch und platzierten Anzeigen auf Facebook, die für jede Person individuell angepasst wurden.

Die Mitarbeiter des Unternehmens haben nicht nur die ethischen Rahmenbedingungen überschritten, sondern auch moderne Technologien angewendet, deren Arbeit nicht zu analysieren war. Die Effektivität des maschinellen Lernens ist ein wiederkehrendes Thema unter führenden Mathematikern. Sie geben unisono zu, dass sie über den außerordentlichen Erfolg von Computerprogrammen erstaunt sind, aber sie sind völlig unfähig, die Arbeit eines komplexen Systems zu verstehen. In Myanmar verursachten Facebook-Posts im April dieses Jahres ebenfalls Unruhen unter den Massen, aber im Gegensatz zu den USA, wo Proteste stattfanden, gab es im asiatischen Staat ein Massaker, bei dem mehrere hundert Menschen getötet wurden. Die Manipulation einer großen Anzahl von Menschen ist Realität und Roboter können hier einen grausamen Witz mit uns spielen.

Image
Image

Es lohnt sich, sich an dasselbe Facebook zu erinnern, auf dem KI-basierte Chatbots gestartet wurden. Virtuelle Assistenten wurden geschult, um einen Dialog mit dem Gesprächspartner zu führen. Im Laufe der Zeit wurden Bots nicht mehr von echten Menschen zu unterscheiden, und dann beschlossen die Autoren, die Roboter zusammenzubringen. Im Laufe der Zeit begannen Bots, lexikalische Strukturen zu verkürzen und Kauderwelsch auszutauschen. Die Medien haben eine Sensation aus den Nachrichten geweckt, sie sagen "die Maschinen haben sich empört". Abgesehen von der Übertreibung der Journalisten ist es jedoch fair zuzugeben, dass eine Person dies möglicherweise nicht bemerkt, wenn Maschinen anfangen, miteinander zu kommunizieren. Und wie sie dort ihr eigenes Leben führen werden - niemand weiß es.

Die von Tag zu Tag immer komplexer werdende Struktur des Computergeistes führt uns davon ab, die Prinzipien seiner Arbeit zu verstehen. Während die meisten Algorithmen ihre Arbeit erledigen, sind komplexe Maschinen auch heute noch alles andere als ideal und machen Fehler. Für die weitere Entwicklung der KI ist es wichtig, nicht nur ihre Stärken, sondern auch ihre Schwachstellen zu verstehen. Darauf konzentriert sich eine große Anzahl wissenschaftlicher Gruppen, in denen sich ein Spezialist des MIT Anish atali befindet. Vor ein paar Tagen erzählte er Reportern von den häufigsten Fehlern in Bilderkennungssystemen.

Seine Kollegen demonstrierten der Maschine Objekte und stellten fest, dass einzelne Objekte durch elektronisches Sehen häufig falsch wahrgenommen wurden. Der Computer könnte einen Baseball eine Tasse Kaffee und eine 3D-gedruckte Schildkröte eine Armeemaschine nennen. Die Gruppe hat bereits etwa 200 Elemente gesammelt, die irreführende Algorithmen sind.

Image
Image

Künstliche Intelligenz konzentrierte sich, anstatt ein Objekt als Ganzes wahrzunehmen, auf seine einzelnen Parameter. KI neigt dazu, aus einer „perfekten“Stichprobe zu lernen. Bei nicht konformen Phänomenen kann er den üblichen Verarbeitungsprozess nicht immer aufgeben. Anstatt zuzugeben, dass er das Bild nicht verarbeiten kann, versucht er weiterhin, das Bild zu lesen, was zu manchmal lustigen Ergebnissen führt. Anstelle der Form einer Schildkröte versuchte das elektronische Gehirn, seine Textur zu lesen, ähnlich wie bei der Tarnung. Aus ungefähr dem gleichen Grund sind E-Auto-Autopiloten noch nicht 100% zuverlässig. Für ein Auto ist es schwierig, die Silhouette zu erkennen und anzunehmen, dass sie aus separaten Elementen besteht.

Und wenn in den kommenden Jahren einige Mängel behoben werden können, gibt es keine Garantie dafür, dass Hacker die Sicherheitsanfälligkeit nicht ausnutzen. Hacker elektronischer Geräte sind heute fast die Hauptursache für Angst. Ein kleines Team von Programmierern kann nicht nur auf persönliche Informationen zugreifen, sondern auch autonome Systeme neu konfigurieren und die Kontrolle über Werkzeuge mit kolossaler Macht übernehmen. Und dann werden wir alle in Schwierigkeiten sein. Aber die wichtigste Schlussfolgerung, die gezogen werden kann, ist vielleicht die traditionelle - Sie sollten keine Angst vor Autos haben, sondern vor Menschen.

Alexander Lavrenov

Empfohlen: