Der Dresdener Datensatz zur chirurgischen Anatomie für die Segmentierung der Bauchorgane in der chirurgischen Datenwissenschaft

Nachricht

HeimHeim / Nachricht / Der Dresdener Datensatz zur chirurgischen Anatomie für die Segmentierung der Bauchorgane in der chirurgischen Datenwissenschaft

Jun 02, 2024

Der Dresdener Datensatz zur chirurgischen Anatomie für die Segmentierung der Bauchorgane in der chirurgischen Datenwissenschaft

Scientific Data Band 10, Artikelnummer: 3 (2023) Diesen Artikel zitieren 5751 Zugriffe 1 Zitate 29 Altmetric Metrics Details Laparoskopie ist ein bildgebendes Verfahren, das minimalinvasive Verfahren ermöglicht

Scientific Data Band 10, Artikelnummer: 3 (2023) Diesen Artikel zitieren

5751 Zugriffe

1 Zitate

29 Altmetrisch

Details zu den Metriken

Die Laparoskopie ist ein bildgebendes Verfahren, das minimalinvasive Eingriffe in verschiedenen medizinischen Disziplinen ermöglicht, darunter Bauchchirurgie, Gynäkologie und Urologie. Bisher beschränken sich öffentlich verfügbare laparoskopische Bilddatensätze meist auf allgemeine Datenklassifizierungen, semantische Segmentierungen chirurgischer Instrumente und schwache Annotationen spezifischer Bauchorgane in geringem Umfang. Der Dresdner Chirurgische Anatomiedatensatz bietet semantische Segmentierungen von acht Bauchorganen (Dickdarm, Leber, Bauchspeicheldrüse, Dünndarm, Milz, Magen, Harnleiter, Blasendrüsen), der Bauchdecke und zwei Gefäßstrukturen (Arteria mesenterica inferior, Darmvenen) in laparoskopischer Ansicht . Insgesamt umfasst dieser Datensatz 13195 laparoskopische Bilder. Für jede anatomische Struktur stellen wir über tausend Bilder mit pixelweiser Segmentierung zur Verfügung. Annotationen umfassen semantische Segmentierungen einzelner Organe und einen Multiorgan-Segmentierungsdatensatz einschließlich Segmenten für alle elf anatomischen Strukturen. Darüber hinaus stellen wir für jedes einzelne Bild schwache Anmerkungen zur Organpräsenz bereit. Dieser Datensatz erweitert den Horizont für chirurgische datenwissenschaftliche Anwendungen von Computer Vision in der laparoskopischen Chirurgie deutlich und könnte dadurch zu einer Reduzierung von Risiken und einer schnelleren Umsetzung künstlicher Intelligenz in die chirurgische Praxis beitragen.

Messungen)

Laparoskopische Chirurgie

Technologietyp(en)

Laparoskopie

Faktortyp(en)

Vorhandensein und Lage anatomischer Strukturen in laparoskopischen Bildern

Probenmerkmal – Organismus

Ein weiser Mann

Probeneigenschaft – Umgebung

Abdomen

Probenmerkmal – Standort

Bauchhöhle

Die laparoskopische Chirurgie ist eine häufig verwendete Technik, die minimalinvasive chirurgische Eingriffe sowie robotergestützte Chirurgie ermöglicht und mehrere Vorteile gegenüber der offenen Chirurgie mit sich bringt: kürzere Krankenhausaufenthaltsdauer, weniger Blutverlust, schnellere Genesung, bessere chirurgische Sicht und insbesondere für Roboterverfahren, intuitivere und präzisere Steuerung chirurgischer Instrumente1,2. Mittlerweile werden viele der im Bild enthaltenen Informationen nicht genutzt, da die menschliche Aufmerksamkeit nicht in der Lage ist, diese immense Informationsmenge in Echtzeit zu verarbeiten. Darüber hinaus sind anatomische Kenntnisse und medizinische Erfahrung erforderlich, um die Bilder zu interpretieren. Diese Barriere stellt einen vielversprechenden Ausgangspunkt für die Entwicklung computergestützter Assistenzfunktionen auf Basis Künstlicher Intelligenz (KI) dar.

Die sich schnell entwickelnden Methoden und Techniken, die durch den Einsatz von KI bereitgestellt werden, genauer gesagt die automatisierte Erkennung von Instrumenten, Organen und anderen anatomischen Strukturen in laparoskopischen Bildern oder Videos, haben das Potenzial, chirurgische Eingriffe sicherer und weniger zeitaufwändig zu machen3,4,5, 6. Open-Source-Datensätze für laparoskopische Bilder sind begrenzt, und bestehende Datensätze wie Cholec807, LapGyn48, SurgAI9 oder der Heidelberg Colorectal Data Set10 umfassen meist Anmerkungen auf Bildebene, die es dem Benutzer ermöglichen, zu unterscheiden, ob die interessierende Struktur in einem Bild ohne sichtbar ist oder nicht gibt Aufschluss über seine konkrete räumliche Lage und Erscheinung. Allerdings sind solche pixelweisen Annotationen für eine Vielzahl maschineller Lernaufgaben zur Bilderkennung im Kontext der chirurgischen Datenwissenschaft erforderlich11. Im klinischen Umfeld könnten solche Algorithmen die kontextabhängige Erkennung und damit den Schutz gefährdeter anatomischer Strukturen erleichtern, was letztendlich auf eine erhöhte chirurgische Sicherheit und die Vermeidung von Komplikationen abzielt.

Ein großer Engpass bei der Entwicklung und klinischen Anwendung solcher KI-basierten Assistenzfunktionen ist die Verfügbarkeit annotierter laparoskopischer Bilddaten. Um dieser Herausforderung zu begegnen, bieten wir semantische Segmentierungen an, die durch Anmerkungen zu jedem Pixel eines Bildes Informationen über die Position einer bestimmten Struktur liefern. Basierend auf Videodaten von 32 robotergestützten Rektumresektionen oder -exstirpationen bietet dieser Datensatz insgesamt 13.195 ausführlich kommentierte laparoskopische Bilder, die verschiedene intraabdominale Organe (Dickdarm, Leber, Bauchspeicheldrüse, Dünndarm, Milz, Magen, Harnleiter, Blasendrüsen) und zeigen anatomische Strukturen (Bauchwand, Arteria mesenterica inferior, Darmvenen). Für eine realistische Darstellung häufiger laparoskopischer Hindernisse verfügt es über verschiedene Ebenen der Organsichtbarkeit, darunter kleine oder teilweise verdeckte Organteile, Bewegungsartefakte, inhomogene Beleuchtung sowie Rauch oder Blut im Sichtfeld. Darüber hinaus enthält der Datensatz schwache Beschriftungen der Organsichtbarkeit für jedes einzelne Bild.

Durch die Ergänzung laparoskopischer Daten um anatomisches Wissen schließt dieser Datensatz eine große Lücke im Bereich der chirurgischen Datenwissenschaft und soll als Grundlage für eine Vielzahl maschineller Lernaufgaben im Zusammenhang mit bilderkennungsbasierten chirurgischen Assistenzfunktionen dienen. Mögliche Anwendungen sind die Entwicklung intelligenter Assistenzsysteme durch automatisierte Segmentierungsaufgaben, die Etablierung unbeaufsichtigter Lernmethoden oder die Registrierung präoperativer Bildgebungsdaten (z. B. CT, MRT) mit laparoskopischen Bildern für die chirurgische Navigation.

Dieser Datensatz umfasst Anmerkungen zu elf wichtigen anatomischen Strukturen des Abdomens: Bauchdecke, Dickdarm, Darmgefäße (Arteria mesenterica inferior und Vena mesenterica inferior mit ihren Nebengefäßen), Leber, Bauchspeicheldrüse, Dünndarm, Milz, Magen, Harnleiter und Blasendrüsen.

Zwischen Februar 2019 und Februar 2021 wurden Videodaten von insgesamt 32 robotergestützten vorderen Rektumresektionen bzw. Rektumexstirpationen am Universitätsklinikum Carl Gustav Carus Dresden gesammelt und in diesen Datensatz eingeflossen. Die Mehrheit der Patienten (26/32) war männlich, das Gesamtdurchschnittsalter betrug 63 Jahre und der mittlere Body-Mass-Index (BMI) betrug 26,75 kg/m2 (Tabelle 1). Bei allen eingeschlossenen Patienten bestand eine klinische Indikation für den chirurgischen Eingriff. Die Operationen wurden mit einem Standard-Da Vinci® Xi/X-Endoskop mit Kamera (8 mm Durchmesser, 30° Winkel, Intuitive Surgical, Artikelnummer 470057) durchgeführt und mit dem CAST-System (Orpheus Medical GmbH, Frankfurt aM, Deutschland) aufgezeichnet. Jede Aufnahme wurde mit einer Auflösung von 1920 × 1080 Pixel im MPEG-4-Format gespeichert und dauert zwischen etwa zwei und zehn Stunden. Das örtliche Institutional Review Board (Ethikkommission der Technischen Universität Dresden) hat diese Studie geprüft und genehmigt (Genehmigungsnummer: BO-EK-137042018). Die Studie, für die dieser Datensatz erfasst wurde, wurde auf Clinicaltrials.gov registriert (Studienregistrierungs-ID: NCT05268432). Von allen Teilnehmern wurde eine schriftliche Einverständniserklärung zur laparoskopischen Bilddatenerfassung, Datenanmerkung, Datenanalyse und anonymisierten Datenveröffentlichung eingeholt. Vor der Veröffentlichung wurden alle Daten entsprechend der Datenschutz-Grundverordnung der Europäischen Union anonymisiert.

Der chirurgische Prozess wurde von einem Medizinstudenten mit zwei Jahren Erfahrung in der robotergestützten Rektalchirurgie (MC, FMR) zeitlich mit b<>com *Surgery Workflow Toolbox* [Annotate] Version 2.2.0 (b<>com, Cesson) kommentiert -Sévigné, Frankreich), entweder während der Operation oder retrospektiv, gemäß einem zuvor erstellten Anmerkungsprotokoll (Ergänzungsdatei 1), wobei besonderes Augenmerk auf die Sichtbarkeit der oben genannten anatomischen Strukturen gelegt wurde. Allgegenwärtige Organe (Bauchwand, Dickdarm und Dünndarm), Darmgefäße und Bläschendrüsen wurden zeitlich nicht spezifisch kommentiert.

Um einen äußerst vielfältigen Datensatz zu erhalten, wurden für jede anatomische Struktur Videos von mindestens 20 verschiedenen Operationen berücksichtigt. Aus jedem betrachteten Operationsvideo wurden bis zu 100 äquidistante Bilder zufällig aus der Gesamtmenge an Videodaten ausgewählt, die ein bestimmtes Organ darstellen. Daher enthält dieser Datensatz mindestens 1000 kommentierte Bilder von mindestens 20 verschiedenen Patienten für jedes Organ oder jede anatomische Struktur. Die Anzahl der pro Organ und Operation extrahierten und kommentierten Bilder sowie die Anzahl der Segmente und die durchschnittlichen Anteile des nicht segmentierten Hintergrunds pro Organ sind in Tabelle 2 aufgeführt.

Für anatomische Strukturen ohne zeitliche Anmerkung (Bauchwand, Dickdarm, Darmgefäße, Dünndarm und Blasendrüsen) wurden Sequenzen, die das spezifische Organ darstellen, ausgewählt und manuell mit LossLessCut Version 3.20.1 (entwickelt von Mikael Finstad) zusammengeführt. Zufällige Frames wurden mithilfe eines Python-Skripts aus der zusammengeführten Videodatei extrahiert (siehe Abschnitt „Codeverfügbarkeit“). Die Extraktionsrate (extrahierte Bilder pro Sekunde) wurde abhängig von der Dauer des zusammengeführten Videos angepasst, um bis zu 100 Bilder pro Organ und Operation zu extrahieren. Die Bilder wurden im PNG-Format mit einer Auflösung von 1920 × 1080 Pixel gespeichert.

Für Leber, Bauchspeicheldrüse, Milz, Magen und Harnleiter dienten zeitliche Annotationen als Grundlage für den Rahmenextraktionsprozess mithilfe des oben genannten Python-Skripts. Basierend auf einer TXT-Datei mit zeitlichen Anmerkungen zur Organpräsenz wurden äquidistante Frames aus den jeweiligen Sequenzen für jedes Organ extrahiert, wie oben beschrieben.

Die resultierenden Bilder wurden überprüft und Bilder, die nicht verwendbar waren (z. B. die Orgel ist nicht sichtbar, weil sie vollständig von einem Instrument verdeckt ist, das gesamte Sichtfeld ist mit Rauch gefüllt, stark eingeschränkte Sicht aufgrund einer verschwommenen Kamera) wurden manuell ausgeschlossen.

Es wurden keine automatisierten Filterverfahren eingesetzt, um Bilder gezielt auszuwählen oder zu vermeiden (z. B. auf Basis gegenseitiger Informationen). Um die der intraoperativen Bildgebung innewohnende Variabilität aufrechtzuerhalten, wurden keine Bildvorverarbeitungsschritte (z. B. Anpassung der Bildintensität oder des Bildkontrasts oder der Fenstergröße) durchgeführt. Die Bilder wurden direkt aus den während der Operation aufgenommenen Videos extrahiert und in PNG (verlustfrei) konvertiert. Diese Bilder wurden dann direkt kommentiert.

Der resultierende Datensatz umfasst über 1000 Bilder von mindestens 20 Operationen für jede anatomische Struktur (Abb. 1).

Überblick über den Datenerfassungs- und Validierungsprozess. Basierend auf zeitlichen Annotationen von 32 Rektumresektionen segmentierten drei unabhängige Annotatoren jedes einzelne Bild hinsichtlich der pixelweisen Position des jeweiligen Organs semantisch. Diese Segmentierungen wurden zusammengeführt und einzelne Segmentierungen wurden zusammen mit der zusammengeführten Segmentierung von einem Arzt mit beträchtlicher Erfahrung in der minimalinvasiven Chirurgie überprüft, was zur endgültigen pixelweisen Segmentierung führte (linkes Feld). Darüber hinaus wurde jedes einzelne Bild im Hinblick auf die Sichtbarkeit aller einzelnen interessierenden anatomischen Strukturen von einem Annotator klassifiziert und unabhängig überprüft (rechtes Feld).

Für die pixelweise Segmentierung verwendeten wir 3D Slicer 4.11.20200930 (https://www.slicer.org) einschließlich der SlicerRT-Erweiterung, einer Open-Source-Software zur medizinischen Bildanalyse12. Die anatomischen Strukturen wurden manuell mit der Segmenteditor-Funktion unter Verwendung eines stiftgeführten Tablet-Computers unter Microsoft Windows semantisch segmentiert. Die bei der Segmentierung vorgenommenen Einstellungen waren „Schere“, Operation „Innen füllen“, Form „Freiform“, Scheibenschnitt „symmetrisch“. Als Richtlinie haben wir ein Segmentierungsprotokoll erstellt, das die Einschlusskriterien für jede betrachtete anatomische Struktur detailliert beschreibt (Ergänzungsdatei 2). Jedes einzelne Bild wurde gemäß dieser Richtlinie von drei Medizinstudenten mit grundlegender Erfahrung in der minimalinvasiven Chirurgie semantisch annotiert. Somit wurde schließlich in jedem Bild genau eine spezifische anatomische Struktur segmentiert (z. B. wurde der Dickdarm in jedem der 1374 Dickdarmbilder pixelweise annotiert). Darüber hinaus wurde aus den 1430 Magenrahmen ein Multiorgan-Segmentierungsdatensatz erstellt. Zu diesem Zweck wurde der Magendatensatz ausgewählt, da diese Bilder sehr oft verschiedene Organe, wie Dickdarm, Dünndarm oder Milz sowie die Bauchdecke, zeigen. Anschließend wurden die drei Einzelannotationen automatisch zusammengeführt (siehe Abschnitt „Codeverfügbarkeit“). Einzelne Anmerkungen neben zusammengeführten Segmenten wurden von einem Arzt mit dreijähriger Erfahrung in der minimalinvasiven Chirurgie überprüft und angepasst. Abbildung 1 gibt einen Überblick über den Bilderzeugungs- und Verifizierungsprozess. Beispielanmerkungen finden Sie in Abb. 2.

Beispielbilder jeder anatomischen Struktur. Die Abbildung zeigt ein Rohbild (linke Spalte), die drei pixelweisen Annotationen und die zusammengeführte Annotation (mittlere Spalte) sowie die endgültig überprüfte Segmentierung (rechte Spalte). Die drei Anmerkungen werden als rote, grüne und blaue Linien angezeigt. Die zusammengeführte Version und die endgültig überprüfte Segmentierung werden als weiße transparente Flächen angezeigt.

Schwache Beschriftungen geben Aufschluss über die Sichtbarkeit verschiedener anatomischer Strukturen im gesamten Bild. Schwache Labels wurden von einem Medizinstudenten mit grundlegender Erfahrung in der minimalinvasiven Chirurgie kommentiert und von einem zweiten in jedem Frame überprüft (Abb. 1).

Der vollständige Datensatz ist unter figshare13 verfügbar.

Der Dresdner chirurgische Anatomiedatensatz ist bei figshare13 gespeichert. Benutzer können ohne vorherige Registrierung auf den Datensatz zugreifen. Die Daten werden in einer 3-stufigen Ordnerstruktur organisiert. Die erste Ebene besteht aus zwölf Unterordnern, einem für jedes Organ/jede anatomische Struktur (Bauchwand, Dickdarm, untere_Mesenterialarterie, Darmvenen, Leber, Bauchspeicheldrüse, Dünndarm, Milz, Magen, Harnleiter und Blasendrüsen) und einer für den Multiorgan-Datensatz (Multilabel). .

Jeder Ordner enthält 20 bis 23 Unterordner für die verschiedenen Operationen, aus denen die Bilder extrahiert wurden. Die Nomenklatur der Unterordner wird aus der individuellen Indexnummer jeder Operation abgeleitet. Jeder dieser Ordner enthält zwei Versionen von 5 bis 91 PNG-Dateien, ein Rohbild, das aus der OP-Videodatei extrahiert wurde, und ein Bild, das die Maske der von Experten geprüften semantischen Segmentierung enthält (schwarz = Hintergrund, weiß = Segmentierung). . Die Rohbilder heißen imagenumber.png (z. B. image23.png), die Masken heißen masknumber.png (z. B. mask23.png). Im Multilabel-Ordner gibt es für jede der betrachteten Strukturen, die auf dem Einzelbild sichtbar sind, eigene Masken (z. B. masknumber_stomach.png). Die Bildindizes stimmen immer mit den zugehörigen Bildern überein.

Jeder chirurgie- und organspezifische Ordner enthält außerdem eine CSV-Datei mit dem Namen schwach_labels.csv, die alle Informationen über die Sichtbarkeit der elf betrachteten Organe in den jeweiligen Bildern enthält. Die Spalten in diesen CSV-Dateien sind alphabetisch geordnet: Bauchwand, Dickdarm, Arteria mesenterica inferior, Darmvenen, Leber, Bauchspeicheldrüse, Dünndarm, Milz, Magen, Harnleiter und Blasendrüsen.

Zusätzlich sind die Ordner anno_1, anno_2, anno_3 und merged aus den chirurgie- und organspezifischen Unterordnern zugänglich. Diese Ordner enthalten die von den verschiedenen Annotatoren generierten Masken und die automatisch generierte zusammengeführte Version der Masken, jeweils im PNG-Format.

Um die Anmerkungen der drei verschiedenen Anmerkungen für jedes Bild im Datensatz zusammenzuführen, wurde der STAPLE-Algorithmus14 angewendet, der häufig zum Zusammenführen verschiedener Segmentierungen bei biomedizinischen Problemen verwendet wird. Jeder Annotator erhielt das gleiche Gewicht. Die zusammengeführten Annotationen wurden dann zusammen mit den ursprünglichen Segmentierungen der Annotatoren auf eine Segmentierungs- und Annotationsplattform namens CVAT (https://github.com/openvinotoolkit/cvat)15 hochgeladen, die am National Center for Tumor Diseases (NCT/UCC) gehostet wird ) Dresden. Der für die Überprüfung der Daten zuständige Arzt könnte sich dann anmelden, für jedes Bild die am besten geeigneten Anmerkungen auswählen und diese bei Bedarf anpassen.

Um das Ausmaß der Übereinstimmung zwischen den Segmentierungen der einzelnen Annotatoren und der zusammengeführten Annotation mit der endgültigen Annotation jedes Bildes zu bewerten, haben wir zwei Standardmetriken für den Segmentierungsvergleich berechnet16:

F1-Score, der die Überlappung verschiedener Anmerkungen mit einem Wert von 0 bis 1 anzeigt (0: keine Überlappung, 1: vollständige Überlappung)

Hausdorff-Distanz, eine Distanzmetrik, die den maximalen Abstand zwischen einer Referenzanmerkung und einer anderen Segmentierung berechnet. Hier haben wir den Hausdorff-Abstand über die Bilddiagonale normalisiert, was zu Werten zwischen 0 und 1 führt, wobei 0 angibt, dass es keine Trennung zwischen den beiden Segmentierungen gibt und 1 bedeutet, dass es einen maximalen Abstand zwischen den beiden gibt.

Die Ergebnisse dieses Vergleichs finden Sie in Tabelle 3, sortiert nach den verschiedenen Gewebearten. Die Tabelle zeigt, dass für die meisten Organe keine große Diskrepanz zwischen den zusammengeführten Anmerkungen und dem Endprodukt besteht, wobei die meisten F1-Werte über 0,9 liegen, was auf eine große Überlappung hinweist, und der niedrige Wert für den Hausdorff-Abstand darauf hinweist, dass keine Tendenzen zu Über- oder Untersegmentierung bestehen waren anwesend. Nur der F1-Score für die Harnleiterklasse scheint darauf hinzudeuten, dass der Expertenannotator regelmäßig eingreifen musste, obwohl der Unterschied immer noch minimal zu sein scheint, wie aus der geringen Hausdorff-Distanz hervorgeht.

Die meisten Annotatoren schienen auch regelmäßig mit der endgültigen Annotation einverstanden zu sein, allerdings nicht immer im gleichen Maße wie die zusammengeführte Annotation, was die Fusion über STAPLE rechtfertigte. Ähnlich wie bei den zusammengeführten Anmerkungen gab es größere Diskrepanzen hinsichtlich der Harnleiterklasse. Im Allgemeinen schienen jedoch mindestens zwei Kommentatoren den Anmerkungen der Experten weitgehend zuzustimmen.

Der bereitgestellte Datensatz ist für die nichtkommerzielle Nutzung unter der Creative Commons-Namensnennung CC-BY öffentlich verfügbar. Wenn Leser diesen Datensatz verwenden oder darauf verweisen möchten, sollten sie dieses Papier zitieren.

Der Datensatz kann für verschiedene Zwecke im Bereich des maschinellen Lernens verwendet werden. Einerseits kann es in Kombination mit anderen, bereits vorhandenen Datensätzen als Quelle für weiteres Bildmaterial genutzt werden. Andererseits können damit Organdetektionsalgorithmen erstellt werden, die entweder mit schwachen Labels oder mit semantischen Segmentierungsmasken arbeiten, beispielsweise als Grundlage für die Weiterentwicklung von Assistenzanwendungen17. Vorgeschlagene Trainings-Validierungs-Test-Aufteilungen sowie Ergebnisse detaillierter Segmentierungsstudien werden in einer separaten Veröffentlichung 18 berichtet.

Die Skripte für die Frame-Extraktion, das Zusammenführen von Anmerkungen und die statistische Analyse sowie die Ergebnisse der statistischen Analyse werden auf https://gitlab.com/nct_tso_public/dsad und über https://zenodo.org/record/6958337 veröffentlicht #.YvIsP3ZBxaQ. Der gesamte Code ist in Python3 geschrieben und frei zugänglich.

Kang, SB et al. Offene versus laparoskopische Chirurgie bei mittlerem oder niedrigem Rektumkarzinom nach neoadjuvanter Radiochemotherapie (COREAN-Studie): Kurzfristige Ergebnisse einer offenen, randomisierten, kontrollierten Studie. Lancet Oncol. 11, 637–645 (2010).

Artikel Google Scholar

Biffi, R. et al. Umgang mit robotergestützter Chirurgie bei Rektumkarzinomen: Aktueller Stand und Perspektiven. Welt J. Gastroenterol. 22, 546–556 (2016).

Artikel CAS Google Scholar

Shvets, AA, Rakhlin, A., Kalinin, AA & Iglovikov, VI Automatische Instrumentensegmentierung in der robotergestützten Chirurgie mithilfe von Deep Learning. 2018 17. Internationale IEEE-Konferenz für maschinelles Lernen und Anwendungen (ICMLA). 624–628 (2018).

Islam, M., Atputharuban, DA, Ramesh, R. & Ren, H. Echtzeit-Instrumentensegmentierung in der Roboterchirurgie unter Verwendung von zusätzlich überwachtem Deep Adversarial Learning. IEEE-Robotik- und Automatisierungsbriefe. 4, 2188–2195 (2019).

Artikel Google Scholar

Kumazu, Y. et al. Automatisierte Segmentierung durch Deep Learning lockerer Bindegewebsfasern zur Definition sicherer Dissektionsebenen bei der robotergestützten Gastrektomie. Wissenschaft. Rep. 11, 1–10 (2021).

Artikel ADS Google Scholar

Tokuyasu, T. et al. Entwicklung eines künstlichen Intelligenzsystems, das Deep Learning nutzt, um anatomische Orientierungspunkte während der laparoskopischen Cholezystektomie anzuzeigen. Surg. Endosz. 35, 1651–1658 (2021).

Artikel Google Scholar

Twinanda, AP et al. EndoNet: Eine umfassende Architektur für Erkennungsaufgaben bei laparoskopischen Videos. IEEE Trans. Med. Bildgebung 36, 86–97 (2017).

Artikel Google Scholar

Leibetseder, A. et al. LapGyn4: Ein Datensatz für 4 Probleme der automatischen Inhaltsanalyse im Bereich der laparoskopischen Gynäkologie. MMSys '18: Tagungsband der 9. ACM Multimedia Systems Conference. 357–362 (2018).

Madad Zadeh, S. et al. SurgAI: Deep Learning für computergestütztes laparoskopisches Bildverständnis in der Gynäkologie. Surg. Endosz. 34, 5377–5383 (2020).

Artikel Google Scholar

Maier-Hein, L. et al. Heidelberger kolorektaler Datensatz für die chirurgische Datenwissenschaft im Sensor-OP. Wissenschaft. Daten 8, 1–11 (2021).

Artikel Google Scholar

Maier-Hein, L. et al. Chirurgische Datenwissenschaft – von Konzepten bis zur klinischen Übersetzung. Med. Bild Anal. 76, 102306 (2022).

Artikel Google Scholar

Fedorov, A. et al. 3D Slicer als Bildverarbeitungsplattform für das Quantitative Imaging Network. Magn. Resonanz. Bildgebung 30, 1323–1341 (2012).

Artikel Google Scholar

Carstens, M. et al. Der Dresdener Datensatz zur chirurgischen Anatomie für die Segmentierung von Bauchorganen in der chirurgischen Datenwissenschaft. Figshare https://doi.org/10.6084/m9.figshare.21702600 (2022).

Warfield, SK, Zou, KH & Wells, WM Simultaneous Truth and Performance Level Estimation (STAPLE): Ein Algorithmus zur Validierung der Bildsegmentierung. IEEE Trans. Med. Bildgebung 23, 903–921 (2004).

Artikel Google Scholar

Sekachev, B. et al. Opencv/cvat: v1.1.0 (v1.1.0). Zenodo https://doi.org/10.5281/zenodo.4009388 (2020).

Reinke, A. et al. Häufige Einschränkungen von Bildverarbeitungsmetriken: Eine Bildergeschichte. Vorabdruck unter https://arxiv.org/abs/2104.05642 (2021).

Kolbinger, FR et al. Künstliche Intelligenz für kontextbewusste chirurgische Führung bei komplexen robotergestützten onkologischen Eingriffen: eine explorative Machbarkeitsstudie. Vorabdruck unter https://www.medrxiv.org/content/10.1101/2022.05.02.22274561v1 (2022).

Kolbinger, FR et al. Besser als Menschen? Auf maschinellem Lernen basierende Anatomieerkennung in der minimalinvasiven Bauchchirurgie. Vorabdruck unter https://www.medrxiv.org/content/10.1101/2022.11.11.22282215v11 (2022).

Referenzen herunterladen

Die Autoren danken Helene Marie Reimann, Franziska Hammerschmidt, Christian Schwartz und Maksymilian Jakub Ludwig für die hervorragende Unterstützung bei der Datenannotation. JW, SS und FRK wurden vom Else Kröner Fresenius Zentrum für digitale Gesundheit (Projekt „CoBot“) unterstützt. FMR wurde von der Technischen Universität Dresden mit einem Stipendium im Rahmen des Carus Promotionskolleg Dresden gefördert. Darüber hinaus erhielt FRK eine Förderung im Rahmen des MedDrive-Start-Programms der Technischen Universität Dresden (Förderkennzeichen 60487). Darüber hinaus wurde diese Arbeit von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen der Deutschen Exzellenzstrategie – EXC 2050/1 – Projekt-ID 390696704 – Exzellenzcluster „Centre for Tactile Internet with Human-in-the- Loop“ (CeTI) sowie vom Bundesministerium für Gesundheit (BMG) im Rahmen des SurgOmics-Projekts (Fördernummer BMG 2520DAT82).

Open-Access-Förderung ermöglicht und organisiert durch Projekt DEAL.

Diese Autoren haben gleichermaßen beigetragen: Matthias Carstens, Franziska M. Rinner.

Diese Autoren haben diese Arbeit gemeinsam betreut: Stefanie Speidel, Fiona R. Kolbinger.

Abteilung für Viszeral-, Thorax- und Gefäßchirurgie, Universitätsklinikum und Medizinische Fakultät Carl Gustav Carus, Technische Universität Dresden, Dresden, Deutschland

Matthias Carstens, Franziska M. Rinner, Jürgen Weitz, Marius Distler & Fiona R. Kolbinger

Abteilung für Translationale Chirurgische Onkologie, Nationales Centrum für Tumorerkrankungen (NCT/UCC) Dresden, Dresden, Deutschland

Sebastian Bodenstedt, Alexander C. Jenke & Stefanie Speidel

Centre for Tactile Internet with Human-in-the-Loop (CeTI), Technische Universität Dresden, Dresden, Germany

Sebastian Bodenstedt, Jürgen Weitz, Marius Distler & Stefanie Speidel

Else Kröner Fresenius Center for Digital Health (EKFZ), Technische Universität Dresden, Dresden, Germany

Jürgen Weitz, Marius Distler, Stefanie Speidel & Fiona R. Kolbinger

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

MC, FMR und FRK konzipierten und kompilierten den Datensatz, erstellten Annotationsprotokolle, koordinierten den Annotationsprozess und verfassten den Großteil des Manuskripts. SB und ACJ führten die technische Validierung durch und trugen zur Datensatzkuratierung sowie zum Verfassen von Manuskripten bei. JW, MD und SS stellten die klinische und technische Infrastruktur bereit und lieferten wichtige wissenschaftliche Beiträge. Alle Autoren haben die endgültige Fassung des Manuskripts gelesen und genehmigt.

Korrespondenz mit Stefanie Speidel oder Fiona R. Kolbinger.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Carstens, M., Rinner, FM, Bodenstedt, S. et al. Der Dresdener Datensatz zur chirurgischen Anatomie für die Segmentierung der Bauchorgane in der chirurgischen Datenwissenschaft. Sci Data 10, 3 (2023). https://doi.org/10.1038/s41597-022-01719-2

Zitat herunterladen

Eingegangen: 02. Juni 2022

Angenommen: 26. September 2022

Veröffentlicht: 12. Januar 2023

DOI: https://doi.org/10.1038/s41597-022-01719-2

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt