Bioprozessentwicklung Daten als Rohstoff: Automatisiertes Datenschürfen in der Bioprozesstechnik

Autor / Redakteur: Dr. Alexandra Hofer* und dr. Paul Kroll* / Dr. Ilka Ottleben

In der Entwicklung von Bioprozessen spielt „time to market“ eine große Rolle. Eine schnelle Prozessentwicklung bei gleichzeitiger Generierung von vielen Daten mit hoher Qualität ist das gewünschte Ziel. Automatisierung sowohl der Datengenerierung als auch der Auswertung kann hier die Lösung sein.

Anbieter zum Thema

Abb. 1: Bei den hier beschriebenen Versuchen kam ein Dasbox Multibioreaktor-System von Eppendorf zum Einsatz.
Abb. 1: Bei den hier beschriebenen Versuchen kam ein Dasbox Multibioreaktor-System von Eppendorf zum Einsatz.
(Bild: Eppendorf AG; ©envfx - stock.adobe.com)

Daten sind der Rohstoff in der zunehmend digitalisierten Welt. Dies trifft auch auf die klassische Prozesstechnik zu. Auf Grundlage erhobener Daten werden bestehende Produktionsverfahren optimiert oder neue Prozesse entwickelt. Die Erhebung und Bewertung dieser Daten ist zentrale Aufgabe einer jeden Produkt- oder Prozess­entwicklung. Dabei ist die Qualität und Menge der Daten entscheidend für das Erreichen der Entwicklungsziele.

Die typischen Vorgehensweisen dafür sind i) der parallele Ansatz, bei dem miniaturisierte Reaktorsysteme mit geringerem Aufwand betrieben werden, um einen Überblick über relevante Zusammenhänge zu erhalten (Menge der Daten) und ii) der sequentielle Ansatz, bei dem einzelne Versuche mit höherem analytischem Aufwand durchgeführt werden (Qualität der Daten). Abbildung 2 zeigt beide Vorgehensweisen sowie die daraus resultierenden Herausforderungen.

Bildergalerie
Bildergalerie mit 5 Bildern

Das Verständnis der Abläufe zur Überwachung und Kontrolle eines Prozesses ist in der biopharmazeutischen Industrie ein Muss. Viele Sonden decken wichtige Signale ab, die ein Bild über den aktuellen Zustand der Zellen liefern können, wie etwa pH- und Offgas- oder Gelöstsauerstoff-Sensoren. In der Prozess­entwicklung – besonders in komplexeren biologischen Systemen wie etwa filamentösen Pilzen oder Säugetierzellen – sind jedoch vor allem spezifische Daten notwendig, die nicht durch einfache Sensoren detektiert werden können. Für diese ist eine Probennahme mit anschließender Aufarbeitung und Analytik – meist mittels HPLC – notwendig. Dieser Ablauf ist entscheidend für die Datenqualität und bedarf eines erheblichen Aufwands.

In der Regel ist dieser Aufwand ein limitierender Faktor der Prozessentwicklung. Eine optimale Entwicklungsstrategie bildet daher der Hybrid-Ansatz, welcher es ermöglicht, mit gleichbleibendem Personalaufwand, hochfrequente spezifische Daten im Parallelansatz zu erhalten. Hierfür ist eine Automatisierung der Probennahme, der Probenaufarbeitung und der Analytik essenziell. Des Weiteren muss die Menge an generierten Daten gemanagt und zielgerichtet ausgewertet werden. Hierfür eignen sich Model-basierte Methoden.

Biopharmazeutika: Rohmaterialien im Fokus

In der biopharmazeutischen Produktion werden häufig komplexe Rohmaterialien eingesetzt, da sie kostengünstig sind und einen positiven Einfluss auf Wachstum und/oder Produktivität aufweisen. Die Analytik dieser Materialien sowie das Verständnis der Zusammenhänge zwischen der Rohmaterialzusammensetzung und dem Prozessablauf sind kompliziert und zeitaufwändig. Anhand des Beispiels von Maisquellwasser, welches bei der Produktion von Penicillin eingesetzt wird, soll demonstriert werden, wie durch Automatisierung ein Hybrid-Ansatz ermöglicht wird, der die Charakterisierung des Rohmaterials erlaubt.

Maisquellwasser ist ein zweiphasiges Material, welches als Aminosäure-Quelle dient. Um die Bioverfügbarkeit der Aminosäuren in einem Fermentationsprozess zu bestimmen, muss die enzymatische Freisetzung der Aminosäuren aus Protein oder Peptidverbänden durch den Organismus experimentell evaluiert werden. (Details zum Experiment s. Tabelle 1)

Der Versuch wurde als Hybrid-Ansatz geplant unter Verwendung eines Multibioreaktor Systems (Dasbox, Eppendorf, Deutschland) gekoppelt mit einem Numera-System (Securecell, Schweiz) zur automatisierten Probennahme und Probenverarbeitung. Das Numera-System ermöglicht die sequentielle Probennahme und Verarbeitung von allen vier Bioreaktoren, wobei es eine Probe aus dem Reaktor zieht, wenn nötig verdünnt, filtriert und anschließend an einen Analyzer – im vorliegenden Fall eine HPLC – weitergibt. Das Analysenergebnis steht direkt im Prozessleitsystem (Lucullus PIMS, Securecell, Schweiz) zur Verfügung. Mithilfe dieses Systems konnten vier Bioreaktoren 1x/h beprobt werden. Das Ergebnis ist ein Kinetikverlauf über 72 h, der die Freisetzung von Aminosäuren aus Maisquellwasser durch Enzyme von Penicillium chrysogenum darstellt (s. Abb. 3). Der Vierfachansatz bietet hier eine enorme Zeitersparnis, ebenso wie die Automatisierung der Probennahme. Ohne menschliches Eingreifen wird alle 15 Minuten eine Probe gezogen und verarbeitet. Die hochfrequenten Daten erlauben nun eine präzisere Auswertung und Fehleranalyse.

Die Menge und Qualität der Daten haben einen entscheidenden Einfluss auf die Bewertung von Experimenten. Vor allem statistische Methoden profitieren von einer erhöhten Datenmenge. In der präsentierten Case-Study (s. Abb. 3A) erlaubt die hohe Messfrequenz zu Beginn des Experimentes die Anpassung eines einfachen Modells, welches die Arginin-Freisetzung beschreibt (s. Abb. 4, online). Mit niedrigerer Messfrequenz (s. Abb. 3B), konnte kein Modell mit aussagekräftigen Parametern angepasst werden. Ursache dafür, ist die reduzierte Information aufgrund der geringeren Daten­menge.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

In Realität würde dies bedeuten, dass der Versuch mit niedrigerer Messfrequenz i) öfter durchgeführt werden muss oder ii) das relevante Phänomen nicht ausreichend gut beschrieben werden kann. Die Menge und Qualität von Daten ist folglich ein zentraler Aspekt in der Prozessentwicklung.

Bildergalerie
Bildergalerie mit 5 Bildern

Potenziale der automatischen Datenerhebung

Oftmals ist die vergleichsweise schlechte Datenlage Grund dafür, dass nur ein beschränktes Prozesswissen vorliegt. In Zukunft werden Modelle das Prozesswissen speichern und applizieren und diese Limitation immer deutlicher machen.

Im Umkehrschluss werden Model-basierte Ansätze helfen, mit den steigenden Datenmengen umzugehen. Eine Automatisierung der Datengeneration hat somit eine notwendige Automatisierung der Datenverarbeitung zur Folge. Weiters bietet eine automatisierte Probennahme inklusive Analytik und Rückgabe der Daten an ein Prozessleitsystem, die Möglichkeit des so genannten Model-basierten experimentellen Re-design. Hierbei können die generierten Daten direkt in ein Modell gespeist werden, welches das Experiment – falls nötig – sofort anhand der Datenlage anpasst. Mit diesem Werkzeug kann viel Entwicklungszeit gespart werden und damit natürlich auch „time to market“ für das finale Produkt.

Die hier vorgestellten Ansätze sind die Grundlage für kurzfristig erreichbare Ziele beispielsweise einen höheren Grad an Automatisierung in der Medienentwicklung, im Stammscreening und der Prozessentwicklung bis hin zum finalen Ziel der autonomen Entwicklungsabteilung basierend auf künstlicher Intelligenz.

Achema: Halle 9.2, Stand D67

* Dr. A. Hofer und Dr. P. Kroll TU Wien, Institut für Verfahrenstechnik, Umwelttechnik und technische Biowissenschaften, 1060 Wien/Österreich

(ID:45280998)