Zur Künstlichen Intelligenz: Warum Kinder Robotern Mehr Vertrauen Als Sich Selbst - Alternative Ansicht

Inhaltsverzeichnis:

Zur Künstlichen Intelligenz: Warum Kinder Robotern Mehr Vertrauen Als Sich Selbst - Alternative Ansicht
Zur Künstlichen Intelligenz: Warum Kinder Robotern Mehr Vertrauen Als Sich Selbst - Alternative Ansicht

Video: Zur Künstlichen Intelligenz: Warum Kinder Robotern Mehr Vertrauen Als Sich Selbst - Alternative Ansicht

Video: Zur Künstlichen Intelligenz: Warum Kinder Robotern Mehr Vertrauen Als Sich Selbst - Alternative Ansicht
Video: #kurzerklärt: Wie gefährlich ist künstliche Intelligenz? 2024, Kann
Anonim

Wissenschaftler der University of Plymouth haben gezeigt, dass Kinder alles glauben, was künstliche Intelligenz sagt.

Künstliche Intelligenz findet sich heute in fast jedem Eisen und noch mehr in Kinderspielzeug. Die Kinder von heute lernen, Geräte vor dem Lesen zu benutzen, zumal sie nicht einmal einen Brief kennen müssen, wenn sie einen Sprachassistenten haben. Aber jeder technische Fehler oder jede Sicherheitslücke im System kann ein solches Gerät ziemlich gefährlich machen, wenn Kinder alles, was der Roboter sagt, als absolute Wahrheit wahrnehmen.

Daher haben Wissenschaftler der University of Plymouth (UK) beschlossen, zu untersuchen, wie Kinder mit ihren intelligenten Spielzeugen interagieren und ob sie die "Worte" von Robotern kritisch wahrnehmen können.

Roboter wissen es besser

Um zu sehen, ob Kinder künstlicher Intelligenz vertrauen, wiederholten Wissenschaftler ein Experiment des renommierten Psychologen Solomon Asch. 1951 führte Asch eine Reihe von Experimenten zum sozialen Konformismus durch. Unter dem Deckmantel eines Sehtests schlug er vor, dass die Leute vier Linien betrachten und zwei gleich lange wählen sollten. Einige der Leute in der Gruppe waren Scheinschauspieler, die offensichtlich falsche Antworten gaben. Insgesamt führte der Psychologe eine Reihe von 20 solchen Experimenten durch. Infolgedessen stellte sich heraus, dass sich fast 75% der Probanden mindestens einmal an die öffentliche Meinung angepasst hatten, wenn auch falsch.

Jetzt haben die Forscher das Experiment modifiziert. Anstelle von Dummy-Schauspielern wurden die falschen Antworten durch Roboterspielzeug ausgelöst. Und es stellte sich heraus, dass Roboter Kinder in 25% der Fälle verwirren können. Trotz der Tatsache, dass Kinder auf eigene Faust viel häufiger die richtigen Antworten fanden - in 87% der Fälle.

"Während die Kinder alleine im Raum waren, waren sie bei den Aufgaben ziemlich gut", sagte einer der Autoren der Studie, Tony Belfime, ein Robotikspezialist an der Universität von Plymouth. „Aber sobald die Roboter auftauchten und anfingen, die falschen Antworten zu geben, folgten ihnen die Kinder sofort.

Werbevideo:

KI-Erwachsene glauben nicht

Im zweiten Teil des Experiments beschlossen die Forscher zu beobachten, wie genau Kinder auf Aufforderungen von Robotern reagieren. Diesmal wurden den Kindern Aufgaben angeboten, bei denen es unmöglich schien, einen Fehler zu machen - die richtigen Antworten liegen auf der Hand! Trotzdem beobachteten 74% der Probanden zuerst, was der Roboter sagen würde, und wiederholten dann seine Antwort Wort für Wort. Insgesamt nahmen 43 Kinder an dem Test teil.

"Die Menschen neigen dazu, Maschinen zu vertrauen. Dies ist eine Art Voreingenommenheit", sagt Alan Wagner, Spezialist für Luft- und Raumfahrttechnik an der University of Pennsylvania (USA). - Wir sind es gewohnt, Robotern und Geräten zu vertrauen, weil wir glauben, dass sie besser informiert sind als wir.

Erwachsene in einem ähnlichen Experiment erwiesen sich jedoch als weit davon entfernt, so vertrauensvoll zu sein wie Kinder. Die Wissenschaftler wiederholten den Test mit 60 Erwachsenen, und ihre Antworten wurden nicht durch die Eingabeaufforderungen des Roboters beeinflusst.

"Vielleicht ist die Tatsache, dass diese Roboter wie Kinderspielzeug aussahen und ihre Antworten kein Vertrauen in das erwachsene Publikum weckten", sagt Tony Belfime. - Wenn die Roboter solider aussehen würden oder wenn Siri (Apples Sprachassistent - ed.) Eingabeaufforderungen geben würde, wäre das Ergebnis wahrscheinlich anders.

Die erwachsenen Teilnehmer des Experiments selbst gaben später zu, dass sie entschieden hatten, dass die Roboter einfach zusammengebrochen waren. Nun, oder dass sich diese Aufgaben als zu schwierig für künstliche Intelligenz herausstellten.

Zusammenfassend

Es ist klar, dass Kinder in diesem Alter durch die Fähigkeit des kritischen Denkens enttäuscht wurden - es wird nur mit Alter und Erfahrung gebildet. Im Fall von KI und intelligentem Spielzeug erweist sich eine solche Leichtgläubigkeit jedoch als gefährlich, warnen die Forscher. Solche Technologien werden zunehmend in der Bildung und bei der Arbeit mit Kindern eingesetzt. Darüber hinaus erhalten Roboter zunehmend menschliche Merkmale - von Händen, Füßen, Köpfen bis hin zur Stimme. Dies ist übrigens der Grund, warum Frauenstimmen häufig in Sprachassistenten verwendet werden - dies erhöht das Vertrauen der Benutzer.

EXPERTENKOMMENTAR

Elena Smirnova, Doktorin der Psychologie, Leiterin des Zentrums für psychologische und pädagogische Expertise in Spielen und Spielzeug, Moskauer Psychologische und Pädagogische Universität:

- Die überwiegende Mehrheit der intelligenten Spielzeuge singt, bewegt sich und spricht von selbst. All diese Aktivitäten lähmen die eigene Aktivität des Kindes. Es macht Erwachsenen Spaß, sich ein solches Spielzeug anzusehen. Aber für ein Kind ist es unmöglich, mit ihr zu spielen. Wenn das Spielzeug von selbst spricht, kann ihm in der Vorstellung keine eigene Stimme zugewiesen werden. Wenn sie selbst etwas tut, ist es schwierig, sie in einige Spielpläne zu integrieren. Intelligente Spielzeuge und Roboter sind autark und geschlossen, das Kind kann seine Gefühle und Emotionen nicht in sie einbringen. Daher ist es nicht erwähnenswert, dass sich solche Spielzeuge entwickeln. Sie vermarkten vielmehr nur Spielereien.

KSENIYA KONYUKHOVA

Empfohlen: