AMIA schlägt vor, einige fein-tuning für FDAs KI und maschinelles lernen regs

Die American Medical Informatics Association hat eine Liste von Vorschlägen, um die US-amerikanische Food and Drug Administration, in der Hoffnung, die Verbesserung seiner Rahmenbedingungen des vorgeschlagenen Regelungen für künstliche Intelligenz, machine-learning-und software als Medizinprodukt, oder SaMD.

WARUM ES WICHTIG IST
Mit einem Auge in Richtung der Verbesserung der Wirksamkeit, Effizienz und Sicherheit von klinischen AI und SaMD, AMIA will die FDA, um die Feinabstimmung Ihrer Politik rund um machine-learning-Werkzeuge – insbesondere jene, die in der Lage, sich selbst zu aktualisieren Ihre algorithmen, basierend auf neuen Daten.

In Ihrer Stellungnahme, vorgelegt von der FDA Acting Kommissar Norman Sharpless, MD, AMIA darauf hingewiesen, dass es einen riesigen Unterschied zwischen den KI-Technologien mit sogenannten locked-algorithmen und diejenigen, die kontinuierlich lernen.

Während die Agentur das bestehende framework „, gesteht der zwei verschiedene Arten von algorithmen“, AMIA, sagte, dass es besorgt darüber, dass die regs sind „wurzelt in einem Konzept, das beide gesperrt und kontinuierlich lernen SaMD bietet die Möglichkeit für regelmäßige, absichtliche updates.“

Stattdessen „unsere Mitglieder“ – Erfahrung ist, dass viele AI/ML-basierten SaMD sollen durch kontinuierliche Aktualisierungen, basierend auf Echtzeit-oder nahe-Echtzeit-Daten und die algorithmen werden ständig anzupassen, als ein Ergebnis.“

Das bedeutet, dass die AI ist sehr anfällig für das „lernen aus schlechten oder verzerrten Daten und es kann nicht in der Lage, eine schlüssige Erklärung für jede Entscheidung, die es bietet,“ nach AMIA. „Das kann so ein Benutzer der SaMD nicht zu wissen, ob das Gerät angemessen gilt, um seine oder Ihre Bevölkerung.“

Als solche, die FDA benötigen sollte ein review-Prozess, wenn eine solche Maschine lernen kommt von „Bevölkerung(en) Verschieden von der Ausbildung der Bevölkerung“, so die informatik-Gruppe.

AMIA auch ermutigt FDA halten cybersecurity-Risiken, die top of mind, da das hacken oder andere Daten, die manipulation könnte sich negativ Einfluss auf den Ausgang eines bestimmten Algorithmus. Sie suggeriert zum Beispiel, dass Regeln entwickelt werden, um „bestimmte Arten von Fehler-Erkennung ausgerichtet auf die Vermeidung einer system-Anpassung an ein Falsches signal.“

Es wird auch empfohlen, dass die FDA auch einige Sprache in den Rahmen, könnte Schutz gegen Algorithmus bias möglichen Auswirkungen auf die Personen, die „bestimmte Ethnien, Geschlechter, Altersgruppen, sozioökonomischen Hintergründen und körperlichen und kognitiven Fähigkeiten“, und klären, wie die Entwickler von SaMD-Technologie könnte das testen Ihrer Produkte zu erkennen, die Befangenheit und Anpassung-algorithmen entsprechend.

DER GRÖßERE TREND
Als machine learning weiterhin auf dem Vormarsch über das Gesundheitswesen, die FDA genehmigt hat, mehr und mehr KI-basierte tools in den letzten Monaten. (Und es ist sogar mit AI in seiner eigenen Arbeit.)

Aber zugelassen ist, verwenden die Geräte gesperrt algorithmen, die nicht kontinuierlich lernen. Selbst-Update-Technologien sind ein ganz anderes Spiel, mit Ihren eigenen einzigartigen Eigenschaften und Risiken. Wie die Agentur schärft seinen Ansatz für die Regelung und die Technologie entwickelt sich rasant, wird es brauchen, um im Auge

In seinem Brief, AMIA darauf hingewiesen, die Notwendigkeit, „die Ansicht der performance der SaMD ist unterschiedlich je nach Quelle der Daten-Eingänge. Zum Beispiel, Daten-Eingänge, die aus Daten manuell eingegeben, die von ärzten, Patienten oder Angehörigen/Bezugspersonen, stellen unterschiedliche Fragen, für die SaMD Ausgänge von Eingängen, die aus vollständig eingebettet und automatisierte Geräte, die können keine Einstellungen verändert werden (z.B. vollständig geschlossenen Schleife und basiert auf gespürt Daten).“

Er wies darauf hin, dass „eine weitere kritische Frage betrifft das Ausmaß, in dem eine KI-basierte SaMD sollte in der Lage sein zu liefern Begründung eine Begründung für jede Entscheidung, die es bietet oder unterstützt. In der klassischen form AI, wo vorhandenes know-how codiert wurde, ist es möglich, eine Kette von Argumentation zurück zu Prinzipien oder Daten. Machine-learning-algorithmen, können jedoch die Funktion in einer ‚black box‘ – Modus, mit ein-änderung der impliziten Schaltung mit keine klare Rückverfolgbarkeit. Es ist daher wichtig zu überlegen, unter welchen Umständen ein AI-basierte SaMD sollte eine Erklärung jeder Entscheidung, die es bietet.“

AUF DER PLATTE
„Richtig, die Regulierung der KI und des maschinellen Lernens-basierte SaMD erfordert stetige Dialog zwischen den FDA-und Interessengruppen“, sagt AMIA-Präsident und CEO Douglas B. Fridsma, MD, in einer Erklärung.

„Dieser Entwurf Framework ist nur der Anfang einer vitalen Gespräch zur Verbesserung der Patientensicherheit und innovation“, sagte er. „Wir freuen uns auf Fortsetzung.“

Twitter: @MikeMiliardHITN
E-Mail der Autorin: [email protected]

Healthcare-IT-News ist eine Publikation der HIMSS Medien.