Forscher haben kürzlich einen Algorithmus erzeugt, die könnte erraten, ob Herz-Patienten hatten, lebten oder starben aus Ihrem Zustand innerhalb eines Jahres. Durch die Betrachtung von Daten aus einem test, der die elektrische Aktivität des Herzens, bekannt als ein EKG oder EKG, ist der Algorithmus erfolgreich vorhergesagt die überlebensrate der Patienten in 85% der Fälle. Aber die Entwickler konnten nicht erklären, wie der Algorithmus, der dies Tat. Ihr erklärtes Ziel war, zu finden, bisher unbekannten Informationen, dass die ärzte nicht sehen konnte, in EVGs.
Entwickelt von US-healthcare-provider-Geisinger, der Algorithmus trainiert wurde, mit 1,7 Millionen EKG-Ergebnisse von 400.000 Patienten, darunter auch einige, die gestorben waren von Herzerkrankungen, und andere, die überlebt hatten. Aber ob der Algorithmus kann angewendet werden als genau und ziemlich vorherzusagen, neue Fälle, wie es mit dieser historischen Daten wurde noch nicht getestet. Die Entwickler haben gesagt, versuche geschehen müssen, um zu sehen, ob ähnliche Genauigkeit kann erreicht werden, mit der Vorhersage. Während diese Art von Algorithmus hat jede Menge Potenzial, es gibt Grund zu bleiben, vorsichtig zu hetzen, um diese Arten von künstlicher Intelligenz (KI) Systeme für die Diagnose.
Ein Grund zum bleiben vorsichtig über den Algorithmus der Ergebnisse ist, weil es ist sehr üblich, für algorithmen geschult mit historischen Daten beeinflusst. Dies liegt daran, dass die historischen Daten, die derzeit verwendet werden, zu trainieren, können die algorithmen werden überwiegend von männlichen und weißen Themen, die Einfluss auf seine Richtigkeit. Zum Beispiel algorithmen, die Vorhersagen könnten, Hautkrebs besser als Dermatologen stellte sich heraus, weniger präzise bei der Diagnose von dunkelhäutigen Menschen, weil das system war überwiegend ausgebildet, die mit Daten aus weißen Menschen.
Historische Daten können auch Verzerrungen, die sich reflektieren, mit sozialen Benachteiligungen als medizinische Unterschiede, wie wenn eine Krankheit ist häufiger bei einer Minderheit, weil Sie schlechteren Zugang zur Gesundheitsversorgung. Ein solcher bias ist nicht nur bei Gesundheits-bezogenen algorithmen, aber auch algorithmen für die Gesichts-Erkennungs-und Foto-Kennzeichnung, die Einstellung, die Polizeiarbeit und Strafverfolgung.
Als solche, die Geisinger Algorithmus braucht weitere Tests, um zu sehen, wenn die Vorhersage Tarife sind ähnlich präzise für eine Reihe von Menschen. Zum Beispiel ist es ebenso genau bei der Vorhersage Risiko des Todes für Frauen wie für Männer? Schließlich wissen wir, dass Männer und Frauen haben andere Herzinfarkt-Symptome, die gesehen werden können, die im EKG-Ergebnisse.
Die Geisinger Modell ist auch eine „black-box“ – system, d.h. die Entscheidungen, die Sie macht können nicht erklärt werden durch Experten und so möglicherweise Verzerrungen, die sich die Entwickler nicht kennen. Während viele Forscher und die politischen Entscheidungsträger das Gefühl, dass es inakzeptabel zu entwickeln, die „black box“ – algorithmen, weil Sie diskriminierend sein, die Geschwindigkeit, mit der sich viele algorithmen entwickelt wurden, bedeutet derzeit gibt es nur wenige Gesetze und Verordnungen in Kraft, um sicherzustellen, dass nur unvoreingenommene faire KI Modelle entwickelt.
Eine Lösung könnte sein, die „erklär-AI“ (XAI). Dies sind Systeme, die entworfen sind, um zu ermöglichen, Forscher zu sehen, welche Daten key features ein Algorithmus konzentriert sich auf, und wie erreicht es seine Entscheidung. Dies kann Ihnen helfen, minimieren Verzerrungen des Algorithmus haben kann.
Andere Richtlinien und standards können auch helfen Forscher entwickeln gerechter und transparenter AI. Die IEEE-P7003 standard zeigt Entwicklern, wie um sicherzustellen, dass Sie identifizieren, alle betroffenen Gruppen in einem Daten-set, test für jede Neigung haben, und empfehlen, wie zu bewerten und zu mindern das Risiko von Verzerrungen. IEEE P7001 Anleitungen, wie man eine AI transparent und erklärbar.
Das Verständnis des Algorithmus
Zu wissen, wie die Geisinger-Algorithmus seine Entscheidungen trifft ist auch wichtig, so können die ärzte verstehen, alle neuen Funktionen von Herzerkrankungen Risiko, dass das Modell entdeckt habe. Zum Beispiel einen anderen Algorithmus analysiert die Bilder zu erkennen Hüftfrakturen seinen Entscheidungen durch die Konzentration auf die weiteren klinischen Daten gegeben. Dabei zeigte sich die Bedeutung von Faktoren wie Alter des Patienten oder ob eine mobile scanner verwendet wurde (was die person war in zu viel Schmerz, zu Reisen, um das Hauptfenster für den scanner).
Die Forschung hat gezeigt, dass der Blick auf die Bilder und die klinischen Daten für genauere Diagnosen. Aber, wenn die Forscher können nicht erklären, wie der Algorithmus seine Vorhersage, es könnte bedeuten, kann der Algorithmus nicht mehr entwickelt werden für die spätere Verwendung bei der Diagnose.
Wenn ärzte keine Ahnung von den Funktionen, die ein Algorithmus betrachtet, Sie könnten auch diese features in Ihre eigenen Analysen sowie deren Algorithmus auf die Ergebnisse. Dies wäre im Endeffekt zählen die Funktionen doppelt, über-Betonung Ihrer Bedeutung und möglicherweise auch die Herstellung einer Fehldiagnose. Die ärzte konnten sich auch über reliant auf den Algorithmus, möglicherweise interagieren Sie weniger mit Patienten und potenziell beeinflussen ärzte des Allgemeinen Qualifikationsniveaus.
Zum Beispiel, Forscher, die entworfen, um eine AI zu diagnostizieren Kinderkrankheiten (wie bronchitis und Mandelentzündung) fand seine Diagnosen waren besser als die von Assistenzärzten. Jedoch, leitende ärzte waren noch in der Lage, um genauere Diagnosen über die AI. Also, wenn nicht korrekt verwendet, aber diese Systeme gefährden könnten ärzte nie erreichen den skill-level des aktuellen leitenden ärzte.
Aus diesem Grund ist es wichtig, zu überlegen, wie solche Systeme implementiert sind, und ob Sie im Einklang mit Sektor-Ebene Leitlinien. Verlassen Sie die endgültige Diagnose zu einem Arzt könnte möglicherweise machen die app Diagnosen genauer, und verhindern, dass deskilling. Dies wäre insbesondere der Fall, wenn das Modell war eindeutig erklärbar, und alle Vorurteile sichtbar gemacht und zum Arzt.