Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

07.12.1979 - 

Computer in Krankenhaus und Arztpraxis:

Für Diagnose und Therapieplanung schon oft unentbehrlich

Als leistungsfähiger Gehilfe des Arztes ist der Computer heute schon in vielen diagnostischen und therapeutischen Bereichen - reine Venvaltungsarbeiten bleiben hier außer Betracht - fest etabliert. Selbst DV-Fachleute staunen mitunter, sehen sie, wie ihre Maschinen inzwischen oft den Alltag in Klinikum (und sogar Praxis)bestimmen.

Ärzte schätzen am Rechner, daß er aus einem- riesigen Daten-Wust schnell Informationen mit bestimmten Merkmalen herausgreifen und nach logischen Modellen miteinander verknüpfen kann. Damit eignen diese Maschinen sich prinzipiell ebensogut für die Vorfeld- und die Prädiagnostik - damit sind systematische Routineuntersuchungen großer Bevölkerungsgruppen beziehungsweise die grobe Bestimmung der wahrscheinlich vorliegenden Krankheitsgruppe gemeint - wie für die eingehende Differentialdiagnostik, bei der die Krankheit exakt bestimmt wird, sowie für die Ermittlung des wahrscheinlichen Krankheitsverlaufs (Prognostik). Dabei werden die Diagnosen dank Computer nicht nur Sicherer, die EDV hilft auch, den vielstufigen Prozeß des Diagnostizierens zu optimieren, freute sich kürzlich das Ärzte-Magazin "Selecta".

Ein Patient - viele Diagnosen

Auf der Münchener "SYSTEMS 79" führten mehrere Kongreßreferate im Detail vor, wo heute Computer schon über all dem Arzt helfen - und wo diese Hilfe noch Probleme aufwirft. So berichtete Professor Dr. Jörg Michaelis von der Universität Mainz eispielsweise, daß bei der automatischen Analyse von Elektrokardiogrammen (EKG) die Datenerfassung sowie die Analog-Digital-Wandlung kaum mehr Verbesserer seien, während die diversen Programme zur "Wellenerkennung" und "Vermessung" immer noch deutlich unterschiedliche Resultate liefern. Die Ursache derartiger Divergenzen uneinheitliche Definitionen der einzelnen Abschnitte eines EKGs sowie uneinheitliche Methoden bei der Ermittlung einzelner Meßwerte sollen jedoch nun langsam eliminiert werden.

Beim Automatisieren der diagnostischen Beurteilung von EKGs führt am besten eine Kombination von multivarianten statistischen Verfahren und Entscheidungsbautechniken zum Ziel, bemerkte Michaelis.

Eine interessante neue Entwicklung ist die automatische Verlaufsanalyse von EKGs, denn das Beobachten der zeitlichen Entwicklung beim einzelnen Patienten ist diagnostisch aussagekräftiger als der bloße Vergleich seiner Daten mit statistischen Durchschnittswerten. Hier ist aber noch viel Entwicklungsarbeit zu leisten.

Biosignale kombiniert ausgewertet

Gleichfalls mit der automatischen Bewertung der elektrischen und mechanischen Herztätigkeit befaßt sich Professor Dr. Joachim Dudeck, Universität Gießen. Erst mit der kleinen, preiswerten und leistungsfähigen Hardware von heute könne man die außergewöhnlich vielfältigen Informationen, auf die der Arzt zu achten habe, sinnvoll auswerten, meinte Dudeck in München; früher seien selbst Großrechner oft von der Komplexität der anstehenden Probleme überfordert worden.

Wie vielfältig die vom Computer zu verknüpfenden Daten am Patienten oft sind, zeigt das Beispiel eines Programms, das nicht nur das Ruhe-EKG auswertet, sondern parallel dazu alle fünf Minuten den Herzrhythmus überwacht und dadurch die gesamte EKG-Rhythmusanalyse erheblich verbessert.

Eine wertvolle Hilfe ist der Computer beim Überwachen operierter Patienten da er digitalisierte Daten vielfältiger Biosensoren in kurzen Intervallen aufnehmen und speichern kann. Das gestattet dann die Ableitung und "plastische" Darstellung von Sekundärinformationen, etwa von Verlaufskurven etc. mit dem Vorzug, daß Ärzte und Schwestern das Geschehen leichter als bisher interpretieren können, und Geschwindigkeit, Genauigkeit und Komfort der Überwachungstätigkeit steigen, berichtete Dr. Nikolaus Mendler vom Herzzentrum München. Leider könnten Computer bislang jedoch nur begrenzt Entscheidungshilfen in Form von Trendvoraussagen oder Frühwarnungen geben dazu fehle es einfach an zuverlässigen Algorithmen. Das wiederum rühre daher, daß die Krankheitsbilder des gleichen Leidens von Mensch zu Mensch einfach zu verschieden seien, als daß man die Resultate statistischer Analysen für Entscheidungen im Einzelfall heranziehen könnte. Auch die automatisierte Therapie ist aus diesen Gründen bisher auf eher einfache Regelkreise beschränkt, etwa auf den automatisch gesteuerten Ersatz verlorenen Bluts. Doch kann man an den heutigen Computersystemen zumindest die Voraussetzungen für kompliziertere therapeutische "Entscheidungsschleifen" erarbeiten, für Schleifen, die nicht nur mehr Informations-Input als heute erfordern, sondern bessere Flußdiagramme der Physiologie des kranken Menschen. An denen wird.

Über neue Entwicklungstendenzen bei der automatischen Analyse von Szintigrammen und Röntgenbildern - die Erfindung der Computer-Tomographie wurde erst kürzlich mit dem Nobelpreis ausgezeichnet - berichtete Dr. Siegfried Pöppl von der Gesellschaft für Strahlen und Umweltforschung, München. Werden zweidimensionale Querschitt-Darstellungen durch mathematische Transformationen von mehr als 100 000 einzelnen digitalisierten Absorptionswerten gewonnen, so erfordert die Erreichung dreidimensionaler Darstellungen von Organen aus mehreren Schnittbildern noch einen weit größeren Rechenaufwand. Es gibt dafür heute mehr als ein Dutzend verschiedener Methoden, berichtete Pöppl, die sich übrigens auch zur Gewinnung nuklearmedizinischer Bilder eignen.

Da es dem Arzt auf die Darstellung morphologischer Strukturen ankommt, werden die Computer nun immer häufiger auch gleich zur automatischen Erkennung der Grenzen einzelner Organe verwendet - und ermöglichen damit wiederum eine quantitative Auswertung der gesammelten Daten. Unverzichtbar sind dabei Verfahren aus der Mustererkennung für industrielle und militärische Zwecke sowie neuentwickelte Algorithmen zur "Reinigung" und Verbesserung der Bilder.

*Egon Schmidt ist freier Wissenschaftsjournalist