:quality(80)/p7i.vogel.de/wcms/99/aa/99aa33cc098684717a9169353ea017a8/0104984428.jpeg)
- News
- PharmaTEC
- Wasser/Abwasser
- Food & Beverage
- Automatisierung
- Anlagenbau
- Strömungstechnik
- Verfahrenstechnik
- Sicherheit
- Specials
- Beruf & Karriere
- Forschung & Entwicklung
- Management
- Fachbücher
- Energieeffizienz
- Rohstoffpreise
- Logistik & Verpackung
- Mediathek
- Meilensteine
- Best of Industry
- Zum Fachmedium SCHÜTTGUT
Anbieter zum Thema
Besonderheiten und Lösungen für Fermentationsprozesse
Das Know-how besteht bei modernen NIR-Systemen nicht nur aus der Hard-, sondern auch aus der Software zur Datenverarbeitung und -interpretation.
Bei der quantitativen Auswertung verhindert die Komplexität der Bandenüberlagerungen eine direkte Quantifizierung z.B. durch die Auswertung der Flächen oder Intensitäten einer Bande. Man bedient sich daher verschiedener statistischer Verfahren, um die für die Quantifizierung essenziellen Bestandteile im NIR-Spektrum herauszufiltern. Diese statistischen Verfahren werden unter dem Oberbegriff „Chemometrie“ zusammengefasst. Häufig eingesetzt wird beispielsweise die Hauptkomponentenanalyse – Principal Component Analysis, PCA – oder das Partial-Least-Square-Verfahren, PLS.
Bei einigen dieser Verfahren werden die funktionalen Zusammenhänge zwischen den Spektren und dem zu messenden Parameter, z.B. Glukosekonzentration, ermittelt. Dabei werden meist mehrere Variablen – Bereiche im Spektrum – für die Auswertung herangezogen, weswegen man auch von multivariater Datenauswertung spricht. Für Fermentationsprozesse ist es besonders schwierig, robuste chemometrische Modelle zu entwickeln, da hier zum einen Zielparameter stark korrelieren und zum anderen Variationen von einem Batch zum anderem zu berücksichtigen sind.
Diese Hürden – einmal identifiziert – lassen sich überwinden, indem das Kalibrationsmodell auf eine solide Datenbasis gestellt wird. Dafür sollten während eines Batches zwischen zehn und 20 Proben genommen, sodass die Variationen während des Prozesses ausreichend abgebildet werden. Außerdem ist es entscheidend, eine gewisse Anzahl von Batches zu vermessen, sodass auch Variationen, die von einem Lauf zum nächsten auftreten, in das Modell Eingang finden. Dabei müssen die Daten für die Kalibrierung und für die Validierung der chemometrischen Modelle aus unterschiedlichen Batches stammen.
Dadurch wird in der Validierung der Ernstfall geprobt und ein komplett neuer Batch vorhergesagt, der nicht schon wie bei der Kreuzvalidierung im Kalibrierset enthalten ist. Erfahrungsgemäß sind die Modelle bereits nach drei bis vier Läufen so robust, dass sie in den folgenden Prozessen mehrere Zielparameter in Echtzeit und mit guter Präzision vorhersagen. Das Auflösen von Korrelationen zwischen verschiedenen Zielparametern, z.B. Glucoseverbrauch und Biomasseaufbau, gelingt in den meisten Fällen nur experimentell.
Dafür eignen sich besonders Spiking-Experimente, bei denen ein Analyt in ausreichender Menge etwa am Ende einer Fermentation hinzugegeben wird. Proben, die nach dem Spiking entnommen wurden, zeigen dann keinerlei Korrelation mehr zu anderen Analyten, sodass nur solche Änderungen in den Spektren ins Modell eingehen, die tatsächlich von den Konzentrationsänderungen des Zielanalyten hervorgerufen wurden. ●
* Dr. C. Grimm ist Manager R&D PAT bei Sartorius Stedim Biotech GmbH, Göttingen; Dr. R. Bienert ist Mitarbeiter bei Novartis in Basel/Schweiz.
(ID:42503937)