Suchen

ACHEMA 2015 – Trendbericht Labor-IT

Herausforderungen für eine moderne Labor-IT

| Autor/ Redakteur: Dechema* / Marc Platthaus

Zeit- und Kostendruck, heterogene Gerätelandschaften, rasant wachsende Datenmengen und unterschiedliche Datenformate sind typische Rahmenbedingungen für Informationssysteme in automatisierten Laborprozessen. Ob in Pharmazie, Biotechnologie oder Diagnostik – einen zukunftsfähigen Einzelstandard kann es angesichts der hochkomplexen Abläufe nicht geben. Gefragt sind skalierbare Systeme, integrative Plattformen und standardisierte Schnittstellen.

Firmen zum Thema

Die Herausforderung an die Labor-IT besteht unter anderem in der Nutzung von „Big Data“.
Die Herausforderung an die Labor-IT besteht unter anderem in der Nutzung von „Big Data“.
(Bild: Labfolder)

Substanzbibliotheken mit potenziellen Wirkstoffmolekülen für die Medikamentenentwicklung enthalten heute weit über hunderttausend Wirkstoffe und werden durch Laborroboter aufgebaut, die nach vorgegebenen Syntheseregeln arbeiten. Mit der Laborautomatisierung im Hochdurchsatz-Screening (High Throughput Screening, HTS) steuern Mitarbeiter die Bearbeitung von rund 10.000 Proben täglich. Das Ultra-Hochdurchsatz-Screening, wie es Anfang der 1990er-Jahre von der heutigen Evotec AG zusammen mit internationalen Pharmaunternehmen wie Novartis und Smith-Kline-Beecham entwickelt wurde, kommt in der Wirkstoffforschung zur Entwicklung neuer pharmazeutischer Produkte zur Anwendung und ermöglicht die Bearbeitung von täglich mehr als 100.000 Proben. Die eingesetzten Mikrotiterplatten bieten allein pro Platte bis zu 3456 Wells, um eine effiziente Handhabung und Archivierung durch automatische Systeme zu unterstützen.

Auch wenn Laborabläufe bereits seit den 1980er Jahren über Labor-Informations- und Management-Systeme (LIMS) in IT-Strukturen integriert werden: Der zunehmende Automatisierungsgrad in den Labors erhöht die Komplexität der Anforderungen an die Labor-IT um ein Vielfaches. Das gilt vor allem dann, wenn automatisierte Prozesse über die Einzelgerätesteuerung via PC und Mikrocontroller hinausgehen. Im Zentrum der Aufmerksamkeit stehen das Prozess- und Datenmanagement sowie die übergreifende Laborverwaltung.

Herausforderung „Big Data“

Datenvolumen im Terabyte- und Petabyte-Bereich sind in vielen Bereichen von Medizin und Forschung bereits eine Selbstverständlichkeit. Der Begriff „Big Data“ steht für die immense Datenflut, die durch automatisierte Prozesse entsteht und die sich Schätzungen zufolge weltweit etwa alle zwei Jahre verdoppeln soll. Beispielhaft für diese Entwicklung in den Biowissenschaften ist der rasante Anstieg der Datenressourcen im Bereich Genomsequenzierung.

Doch auch für die Entwicklung neuer Pharmaka und lebenserhaltende Analysen in der Medizin birgt die Datenvielfalt immense Potenziale. So arbeiten Unternehmen wie Boehringer Ingelheim, CHDI, Evotec, Genentech, MedImmune/AstraZeneca, Ono Pharmaceutical und UCB in Forschungsallianzen zusammen, um neue Perspektiven zur Behandlung von Alzheimer, Diabetes und Krebs sowie für die Schmerzbehandlung zu erschließen. Das Biotechnologie-Unternehmen Insilico Biotechnology AG pflegt eine der weltweit führenden Systembiologie-Plattformen, die proprietäre Datenbanken, Zellmodelle und rechnergestützte Auswertungsverfahren zusammenführt. Ziele sind die Validierung von Wirkstoffen sowie die Herstellung von Biochemikalien und Biopharmazeutika.

Hochflexible Datenauswertung

Entscheidend für alle Labors mit automatisierten Prozessen ist ein langfristig sinnvolles Datenmanagement, das die flexible Bereitstellung von Daten erlaubt – sei es im Informationsaustausch mit anderen Labors oder durch einen dezentralen Zugriff auf eigene Datenbestände. Inhaltlich sollten Daten aus Laborprozessen sowohl für automatisierte Auswertungen als auch für grafische Aufbereitungen verwendet werden können.

Auf diese Weise können Labors ihre Ergebnisse aus abgeschlossenen Versuchsreihen zeit- und kostensparend für künftige Experimente oder Analysen nutzen oder anderen Labors zur Verfügung stellen. Auch eine Auswertung der Daten in interdisziplinären Verfahren, etwa anhand spezieller Data-Mining-Algorithmen, gewinnt in den Biowissenschaften weiter an Bedeutung. So erschließen Data-Mining-Verfahren neue Möglichkeiten für die Risikoerkennung in der Medizin. Auch für die praktische medizinische Versorgung lassen sich mit Data-Mining wertvolle Zusatznutzen erzielen: etwa indem Vergleichsdaten aus Prophylaxe, Diagnose und Therapie zum Wohle der Patienten zeitnah abgefragt und im Gesamtkontext analysiert werden.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 43180844)