Erfolgreich im Datenzeitalter - mit neuen Maßstäben bei Leistung, Flexibilität und Skalierbarkeit

Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Labor-Automatisierung

Neue Technologien bringen Tempo ins Labor

11.05.2021
Laborautomatisierung befreit Techniker und Wissenschaftler von zeitaufwendigen und manuellen Aufgaben. Doch die technischen Anforderungen, die von den gegenwärtigen und zukünftigen Aufgaben ausgehen sind erheblich.
Modernste Technologien beschleunigen und vereinfachen alle Bereiche der medizinischen Versorgung. Das trifft vor allem auf die Diagnostik und Laborautomation zu.
Modernste Technologien beschleunigen und vereinfachen alle Bereiche der medizinischen Versorgung. Das trifft vor allem auf die Diagnostik und Laborautomation zu.
Foto: Intel

Die wichtigsten Informationen zur Diagnose und für die medizinische Forschung entstammen den Labors. Das können einfache Bluttests oder auch nur Analysen einer Zellkultur sein. Wichtig ist aber immer, dass die Ergebnisse schnell und äußerst exakt geliefert werden. Je effizienter ein Labor arbeitet, umso schneller können Forscher wichtige Entdeckungen machen oder die behandelnden Ärzte eine präzise Diagnose abgeben.

Häufig ist die Situation in den Labors aber leider so, dass die Testkapazitäten zu gering sind oder die Auswertungen viel zu lange dauern. Das heißt, das Labor ist oft der Flaschenhals in der Behandlung und in der Forschung. Nur mit einer weitreichenden Laborautomatisierung können diese Engpässe abgebaut werden. Dazu gehören vor allem Technologien die darauf abzielen, manuelle und repetitive Aufgaben zu automatisieren. Zunehmend handelt es sich dabei um Laborrobotik, künstliche Intelligenz (KI) inklusive maschinelles Lernen (ML), Deep-Learning (DL) und Computer-Vision.

Intel: Highend-Labor-Technologie

Intel arbeitet mit vielen führenden Medizintechnik-Unternehmen zusammen, um die Entwicklung von neuen Arzneimitteln zu beschleunigen, den Zugang zu neuen Therapien zu ermöglichen und deren Kosten zu senken. So bietet Intel von Roboterarmen bis hin zur Bildverarbeitung die neuesten Lösungen für viele Aufgaben in der Laborautomatisierung. Intels breites Technologie-Portfolio bietet auch den Herstellern von medizinischen Geräten eine Vielzahl an Optionen, mit denen sie die höchsten Energie- und Leistungsanforderungen ihrer Systeme erfüllen können.

Eine wesentliche Rolle im Intel-Portfolio nehmen die Core- und Atom-Prozessoren ein, denn sie bieten das jeweilige Optimum an Leistung und Stromverbrauch. Damit sind sie ideal für die Probenbearbeitungen und deren Untersuchungen, der Sortierung, Zentrifugation sowie den weiteren pre- und postanalytische Arbeiten.

Am obersten Ende des Portfolios befinden sich skalierbare Intel® Xeon® Prozessoren, die soeben in der 3. Generation auf den Markt gekommen sind. Sie bieten eine sehr hohe Leistung, beispielsweise für High-Performance-Computing (HPC) und Edge-Server. Diese Systeme sind besonders für das High-Content-Screening (HCS) und andere rechenintensive Laboranwendungen geeignet. Intels® Movidius™ VPUs sind speziell für Computer-Vision-Lösungen in der Edge konzipiert. Diese VPUs haben einen geringen Energieverbrauch und werden unter anderem für Barcode-Scanning, Roboterarmbewegungen und Probenanalysen genutzt.

Hinzu kommen die persistenten Intel® Optane™ Speicher und die Intel® Optane™ Solid-State-Laufwerke (SSDs). Diese unterstützen große In-Memory-Anwendungen, beispielsweise Image-Processing und KI-Workloads. Abgerundet wird dieses Technologie-Portfolio mit Systemen der neuesten Kommunikationstechnologien. Sie ermöglichen Highspeed-Verbindungen für das Remote-Management und einer Echtzeit-Überwachung die von der Edge bis zur Cloud reichen.

Bei der In-vitro-Diagnostik lassen sich inzwischen viele Prozessschritte weitgehend automatisieren. Wichtig ist hier insbesondere die eindeutige Zuordnung der zu untersuchenden Proben.
Bei der In-vitro-Diagnostik lassen sich inzwischen viele Prozessschritte weitgehend automatisieren. Wichtig ist hier insbesondere die eindeutige Zuordnung der zu untersuchenden Proben.
Foto: Matej Kastelic - shutterstock.com

Somit bieten Server und Datenspeicher, die auf Intel-Technik basieren, eine leistungsstarke Grundlage für das umfangreiche Datenmanagement im gesamten Labor. Dazu gehört das Prinzip von FAIR-Daten. Das heißt, die Daten sind für automatisierte Systeme auffindbar, zugänglich, kompatibel und wiederverwendbar, ohne dass der Mensch eingreifen muss.

Leistungsfähige Anwendungen

Um die Wirkstoffentwicklung mit HCS zu beschleunigen, haben Intel und der Schweizer Pharmakonzern Novartis spezielle Deep-Neural-Networks (DNN) entwickelt. Ziel war es, die Verarbeitung von Mikroskop-Bildern deutlich zu beschleunigen. Mit dem neuen System wurde die Zeit zum Trainieren der erforderlichen Bildanalysemodelle von früher elf Stunden auf jetzt 31 Minuten abgesenkt. Und das bei einer Genauigkeit von über 99 Prozent. "Maschinelles Lernen schafft neue therapeutische Möglichkeiten mit einer beispiellosen Effizienz", sagt Jeremy Jenkins, Leiter Informatik für chemische Biologie und Therapeutik am Novartis Institute for BioMedical Research (NIBR). Zum Einsatz kommen bei Novartis acht Server mit skalierbaren Intel® Xeon® Prozessoren, ein Highspeed-Fabric-Interconnect sowie ein optimiertes TensorFlow.

Ein weiteres Beispiel ist das Translational Genomics Research Institute (TGen) in Phoenix, Arizona. Dort wurde gemeinsam mit Intel eine High-Performance-Computing (HPC)-Infrastruktur aufgebaut, die für Biowissenschaften optimiert ist. Das System umfasst skalierbare Intel® Xeon® Prozessoren, Intel® Optane™ und Dell Rack-Server.

Das Labor der Zukunft

Während überwachte Deep-Learning-Methoden für die Beschleunigung der Bildklassifizierung und die Verkürzung der Zeit bis zur Einsicht unerlässlich sind, hängen Deep Learning-Methoden zum Trainieren der Modelle von großen aufbereiteten Datenmengen ab. Der Zeitaufwand, der zum Aufbereiten solcher Datensätze erforderlich ist, ist häufig unerschwinglich. Aber nur mit solchen Modellen lassen sich unüberwachte Deep-Learning-Methoden auf breiter Front im Bereich der Zellbiologie erstellen und einsetzen, was letztendlich die Wirkstoffentdeckung deutlich steigern würde. Dieser Bereich wird der Schwerpunkt zukünftiger Bemühungen in der Laborautomation sein - sofern die Technologien die Voraussetzungen dafür schaffen können.