Warum Wissenschaftler Sich Bei Wissenschaftlichen Entdeckungen Nicht Auf Künstliche Intelligenz Verlassen Sollten - Alternative Ansicht

Warum Wissenschaftler Sich Bei Wissenschaftlichen Entdeckungen Nicht Auf Künstliche Intelligenz Verlassen Sollten - Alternative Ansicht
Warum Wissenschaftler Sich Bei Wissenschaftlichen Entdeckungen Nicht Auf Künstliche Intelligenz Verlassen Sollten - Alternative Ansicht

Video: Warum Wissenschaftler Sich Bei Wissenschaftlichen Entdeckungen Nicht Auf Künstliche Intelligenz Verlassen Sollten - Alternative Ansicht

Video: Warum Wissenschaftler Sich Bei Wissenschaftlichen Entdeckungen Nicht Auf Künstliche Intelligenz Verlassen Sollten - Alternative Ansicht
Video: Wissenschaftler können sich diese Entdeckungen nicht erklären 2024, April
Anonim

Wir leben in einem goldenen Zeitalter wissenschaftlicher Daten, umgeben von riesigen Reserven an genetischer Information, medizinischer Bildgebung und astronomischen Daten. Die derzeitigen Fähigkeiten von Algorithmen für maschinelles Lernen ermöglichen es der künstlichen Intelligenz, diese Daten so schnell und gleichzeitig sehr sorgfältig zu untersuchen, was häufig die Tür zu potenziell neuen wissenschaftlichen Entdeckungen öffnet. Wir sollten jedoch den Ergebnissen der wissenschaftlichen Forschung der KI nicht blind vertrauen, sagt Genever Allen, Forscher an der Rice University. Zumindest nicht auf dem aktuellen Entwicklungsstand dieser Technologie. Laut dem Wissenschaftler liegt das Problem in der Tatsache, dass moderne KI-Systeme nicht in der Lage sind, die Ergebnisse ihrer Arbeit kritisch zu bewerten.

Allen zufolge kann man sich darauf verlassen, dass KI-Systeme, die Methoden des maschinellen Lernens verwenden, dh wenn das Lernen bei der Anwendung von Lösungen für viele ähnliche Probleme und nicht nur durch die Einführung und Befolgung neuer Regeln und Vorschriften erfolgt, einige Entscheidungen treffen. Genauer gesagt ist es durchaus möglich, der KI Aufgaben bei der Lösung von Problemen in den Bereichen zuzuweisen, in denen das Endergebnis von der Person selbst leicht überprüft und analysiert werden kann. Als Beispiel können wir beispielsweise die Anzahl der Krater auf dem Mond zählen oder Nachbeben nach einem Erdbeben vorhersagen.

Die Genauigkeit und Effizienz komplexerer Algorithmen, mit denen sehr große Datenmengen analysiert werden, um bisher unbekannte Faktoren oder Beziehungen zwischen verschiedenen Funktionen zu finden und zu bestimmen, "ist jedoch viel schwieriger zu überprüfen", stellt Allen fest. Daher kann die Unmöglichkeit, die mit solchen Algorithmen übereinstimmenden Daten zu überprüfen, zu falschen wissenschaftlichen Schlussfolgerungen führen.

Nehmen wir zum Beispiel die Präzisionsmedizin, bei der Spezialisten Patientenmetadaten analysieren, um bestimmte Personengruppen mit ähnlichen genetischen Merkmalen zu finden und wirksame Behandlungen zu entwickeln. Einige KI-Programme zum Durchsuchen genetischer Daten sind tatsächlich wirksam bei der Identifizierung von Gruppen von Patienten mit einer ähnlichen Veranlagung, beispielsweise zur Entwicklung von Brustkrebs. Sie erweisen sich jedoch als völlig unwirksam bei der Identifizierung anderer Krebsarten, beispielsweise kolorektaler. Jeder Algorithmus analysiert die Daten unterschiedlich. Wenn Sie also die Ergebnisse kombinieren, kann es häufig zu Konflikten bei der Klassifizierung der Patientenprobe kommen. Dies wiederum lässt Wissenschaftler sich fragen, welcher KI sie letztendlich vertrauen sollen.

Diese Widersprüche ergeben sich aus der Tatsache, dass die Algorithmen für die Datenanalyse so konzipiert sind, dass sie den in diesen Algorithmen festgelegten Anweisungen entsprechen, die keinen Raum für Unentschlossenheit und Unsicherheit lassen, erklärt Allen.

Wissenschaftler mögen keine Unsicherheit. Herkömmliche Methoden zur Bestimmung von Messunsicherheiten sind jedoch für die Fälle konzipiert, in denen Daten analysiert werden müssen, die speziell zur Bewertung einer bestimmten Hypothese ausgewählt wurden. So funktionieren AI-Programme für Data Mining nicht. Diese Programme basieren nicht auf einer Leitidee und analysieren einfach Datensätze, die ohne einen bestimmten Zweck gesammelt wurden. Daher entwickeln viele KI-Forscher, einschließlich Allen selbst, jetzt neue Protokolle, mit denen KI-Systeme der nächsten Generation die Genauigkeit und Reproduzierbarkeit ihrer Entdeckungen bewerten können.

Werbevideo:

Der Forscher erklärt, dass eine der neuen Bergbaumethoden auf dem Konzept des Resamplings basieren wird. Wenn ein KI-System beispielsweise eine wichtige Entdeckung machen soll, beispielsweise Gruppen von Patienten identifiziert, die für die Forschung klinisch wichtig sind, sollte diese Entdeckung in anderen Datenbanken angezeigt werden. Für Wissenschaftler ist es sehr kostspielig, neue und größere Datensätze zu erstellen, um die AI-Probenahme zu validieren. Laut Allan ist es daher möglich, einen Ansatz zu verwenden, bei dem "ein vorhandener Datensatz verwendet wird, wobei Informationen zufällig so gemischt werden, dass sie eine völlig neue Datenbank imitieren". Und wenn die KI immer wieder die charakteristischen Merkmale bestimmen kann, die es ermöglichen, die erforderliche Klassifizierung durchzuführen, „dann wird es möglich sein, dies zu berücksichtigendass Sie eine wirklich echte Entdeckung in Ihren Händen haben “, fügt Allan hinzu.

Nikolay Khizhnyak

Empfohlen: