Suchen

Zweites ChemPharm-Symposium Ganzheitlicher Ansatz für Chemie und Pharma im Zentrum

Redakteur: Anke Geipel-Kern

Qualitätsmanagement, Mikroverfahrenstechnik und modernes Produktdatenmanagement standen im Fokus des zweiten ChemPharm-Symposiums. U.a. waren Thema: Six Sigma, Process Risk Management wissensbasierter Verfahrensentwicklung.

Firmen zum Thema

Fast schon ein Familientreffen: Zum zweiten ChemPharm-Symposion der Technischen Universität Darmstadt kamen mehr als neunzig Teilnehmer.Bilder: Martina Walzer, Siemens
Fast schon ein Familientreffen: Zum zweiten ChemPharm-Symposion der Technischen Universität Darmstadt kamen mehr als neunzig Teilnehmer.Bilder: Martina Walzer, Siemens
( Archiv: Vogel Business Media )

Fast schon an ein Familientreffen erinnerte das zweite Symposion, zu dem die TU Darmstadt im Februar in das Georg-Christoph-Lichtenberg-Haus geladen hatte. Offenbar trifft die im Zweijahresturnus stattfindende Veranstaltung das Interesse der Branche, denn auch diesmal drängelten sich im stilvollen Ambiente des Gästehauses der TU die Teilnehmer. Im Fokus standen Dauerbrenner wie Qualitätsmanagement und IT-Sicherheit, aber auch das seit der PAT-Iniative der FDA heiß diskutierte Thema Prozessanalysentechnik.

Von der Fertigung profitieren

Bildergalerie

Six Sigma lautete das Thema von Dr. Andreas Bamberg von der zentralen Verfahrensentwicklung bei Merck. Seit 2004 beschäftigt sich auch ein Namur-Arbeitskreis mit den Einsatzmöglichkeiten des aus der Fertigungsindustrie stammenden Verbesserungsinstruments. Denn mittlerweile setzt sich in der Chemie- und Pharmabranche die Erkenntnis durch, Six Sigma könne großes Potenzial für verfahrenstechnische Prozesse haben. „Für den Einsatz in der Prozessindustrie muss allerdings der Methodenbaukasten erweitert werden“, erklärt Bamberg. Der Grund: Das Datenvolumen in der Prozessindustrie ist höher, und die Daten sind enger miteinander korreliert als bei der Stückfertigung. Als sinnvolle Ergänzung sieht der Verfahrenstechnikexperte daher multivariate Methoden wie PCA (Principle Component Analysys) und PLS (Partial Least Squares), die sowohl mit Korrelationen umgehen können als auch mit großen Datenmengen. Typisch für Six Sigma-Projekte sei der Top Town-Charakter, hebt Bamberg hervor: „Der Projektchampion trägt die Verantwortung für den Projekterfolgt und sollte aus dem oberen Management sein.“ Praxiserfahrung mit der Optimierung einer Tablettenproduktion hat Merck bereits gesammelt und 2600 Euro pro Charge eingespart, weil neue Kontrollmechanismen die Herstellung gedeckelter und gebrochenener Tabletten verhindern. „Ein Six Sigma-Projekt ohne das Ziel Geld zu verdienen ist kein Six Sigma-Projekt“, erklärt Bamberg. Im Unterschied zu anderen Qualitätsprogrammen strebt das auf statistischen Modellen basierende Konzept nämlich nicht nach Qualität als Selbstzweck, sondern verfolgt ganz handfeste Ziele, die in einem begrenzten Zeitraum – in der Regel einem halben Jahr – erreicht werden müssen.

Wieviel Risiko darf ‘s denn sein?

Qualität und besseres Prozessverständnis sind Ziele, welche die gesamte Branche bewegen. Grund genug für die Unternehmenleitung von Weleda, sich für die Validierung eines neu eingeführten ERP-Systems zu entschließen. In ihrem Vortrag über die Erfahrungen mit dem Validierungsprojekt plädierte Dr.-Ing. Birgit Brander, Leitung Qualitätssicherung, für eine Risikoanalyse als methodische Untersuchung und für die Etablierung eines „Advocatus Diaboli“. „Risikoanalyse bietet die Chance für pragmatische Löungen, präzisierte Brander. Validierung sei für die Phamaindustrie nicht nur ein notwendiges Übel, sondern biete auch Chancen, so ihre Schlussfolgerung aus dem Projekt. Denn man habe hinterher eine Software, die hinsichtlich GMP und kritischer Funktionen getestet sei.

Boehringer Ingelheim setzt aus dem gleichen Grund auf den Einsatz moderner Risikomanagement-Methoden. Seit die FDA ihren Inspektionsansatz geändert hat, diskutiert die Pharmabranche nämlich die Frage: Wieviel Risiko ist in der Herstellung akzeptabel? Es gehe vor allem darum, „bewusst“ mit Risiko umzugehen, befindet Dr. Rafael Beerbohm, der in Ingelheim die Abteilung Process RiskManagement leitet. Und um Bewusstsein zu schaffen, müssen erst einmal Risiken identifiziert, priorisiert und bewertet werden. Die Ingelheimer setzen dazu u.a. die Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) oder die Hazard and Operability Study (HAZOP) ein. Methodisch geht es bei beiden darum, Risiken schon während der Produktentwicklung und Prozessplanung zu erkennen und auszuschalten. Auch die Visualisierung durch entsprechenden Werkzeuge, z.B. Spider-Diagramme oder SPC-Charts, spielt eine Rolle. Wichtiges Element aller Ansätze ist die Kommunikation im Unternehmen: Boehringer stellt deshalb interdisziplinär zusammengesetzte Teams zusammen, damit die unterschiedlichsten Ideen und Sichtweisen einfließen können. Das Fazit von Beerbohm: Nur wer Risikomanagement im gesamten Produktlebenszyklus anwende, lege den Grundstein für robuste, und fähige Prozesse in der Routine.

Wie optimiert man Prozesse?

Großes Thema des Symposions war die Optimierung des Produktionsprozesses. Die FDA habe mit PAT der Pharmaindustrie ein effizientes Werkzeug an die Hand gegeben, war die Meinung aller Referenten. „Die FDA fordert mit PAT zum lebenslangen Lernen am Prozess auf“, präzisiert Dr. Frauke Jordt, Senior Process Engineer bei Siemens Automation and Drives. Und das geht nicht ohne Kenntnisse über das, was im Reaktor oder dem Mischer abläuft. Vor allem Mischprozesse sind alles andere als trivial, besonders wenn es um die Verteilung niedrig dosierter Wirkstoffe geht. Merck setzt Online-Methoden während der Prozessentwicklung ein und versucht so möglichst viele kritische Parameter auszuschließen.

Am meisten Erfahrungen hat die Pharmaindustrie inzwischen mit der Echtzeitkontrolle durch NIR-Methoden gesammelt. Siemens kann mittlerweile einige Praxisbeispiele vorweisen, u.a. bei der Prozessoptimierung in einer kontinuierlichen Mahlanlage. Bei Mahlprozessen erfolgt die Analyse der Korngröße oft noch manuell, was dazu führt, dass frühestens nach 30 Minuten das Ergebnis da ist und der Prozess bis dahin ohne Kontrolle weiterläuft. Die Folge: Das Produkt wird häufig feiner gemahlen als notwendig, was den Prozess verteuert und die Kapazitätsauslastung vermindert. Kombiniert man die Online-Messung mit einem Prozessleitsystem und einem Regelkreis, kann der Betreiber hingegen bereits während des laufenden Betriebs die Prozessparameter anpassen und die Mühle am Optimum fahren. Immer wenn in einem Produktionsprozess die Mühle der Flaschenhals sei, könne der Einsatz von PAT eine bessere Kapazitätverteilung erzielen, folgert Jordt.

Dreh- und Angelpunkt aller modernen Prozessoptimierungsmethoden ist die multivariate Datenerhebung, die jedoch stets die latente Gefahr birgt, Datenfriedhöfe zu schaffen. „Die Herausforderung ist, Prozessparameter intelligent mit Analysedaten zu verknüpfen und die Informationen herauszuziehen“, weiß Dr. Christoph Saal, Laborleiter Zentrale Forschungsanalytik bei Merck.

Weniger Kosten durch MRT?

Wenn es um Innovationen geht, darf natürlich auch die Mikroreaktionstechnik (MRT) nicht fehlen. Deshalb beschäftigte sich ein weiterer Vortragsblock mit der Frage, welches Potenzial denn die Mikroreaktionstechnik für die Pharmaindustrie hat und wie sich deren Einsatz ökonomisch bewerten lässt. Schließlich ist ein wichtiges Argument aller MRT-Befürworter: Der Einsatz von MRT reduziere die Kosten für Entwicklung und Produktion. Am Beispiel eines representativen Produktportfolios von Merck machte Dr. Dirk Schmalz eine interessante Rechnung für die Verfahrensentwicklung auf: Vergleicht man die übliche Batchfahrweise eines Multipurpose-Betriebs mit der MRT, sind Einsparungen von 30 Prozent möglich, bewertet man hingegen das stoffliche Potenzial, also die Substanzkosten, wird MRT zum Nullsummenspiel. Der Knackpunkt dabei: Die Entwicklungskosten hängen nicht nur von den technischen Grundoperationen, sondern auch von den nachfolgenden Aufreinigungschritten ab. Und gerade in der Spezialchemie sind eine Vielzahl von Kristallisationen und Destillationen nötig, um die benötigte Reinheit der Chemikalie sicher zustellen. Das technische Potenzial der MRT ist also zweifelos da, kann zurzeit aber noch nicht voll ausgereizt werden, da noch Grundoperationen fehlen.

Fazit des Symposions: Wer sich Einblicke in moderne Methoden der Qualitätssicherung erhoffte und Antworten auf die Frage, wie Pharmaunternehmen mit Six Sigma, Process Risk Management und der wissensbasierten Verfahrensentwicklung umgehen, war genau richtig und konnte neue Erkenntnissen mit nach Hause nehmen.

Hintergrund: Wie arbeitet Six Sigma?

Six Sigma ist ein systematischer Ansatz zur Prozessverbesserung und nutzt im wesentlichen statistische Methoden. Das Besondere im Vergleich zu anderen Qualitätssicherungsmaßnahmen ist der mathematische Ansatz, da davon ausgegangen wird, dass jeder Prozess durch ein mathematisches Modell beschrieben werden kann. Ein Fünf-Phasen-Modell soll dabei helfen, Fehlerquellen aufzuspüren und zu beseitigen.

Die fünf Phasen bei Six Sigma sind:

Define: Was ist das Problem?

Measure: Wie lassen sich die Auswirkungen messen?

Analyze: Was sind die Kernursachen für das Problem?

Improve: Wie lässt sich das Problem beseitigen?

Control: Wie wird die Lösung langfristig im Unternehmen verankert?

Artikelfiles und Artikellinks

(ID:206083)