Maschinelles Lernen stellt für die visuelle Inspektionsaufgabe in der pharmazeutischen Produktion einen Quantensprung dar, sagt Mario Holl, Vice President, InspectifAI in seinem Gastbeitrag. Wie die Qualitätsprüfung von Spritzen, Fläschchen oder Ampullen profitieren kann.
Abbildung 1: Screenshot des KI-Systems
(Bild: InspectifAI)
Hohe regulatorischen Rahmenbedingungen und maximale Qualität – die Fertigungs- und Herstellungsprozesse der pharmazeutischen Industrie unterliegen einem besonderen Anspruch, um Produkt- und Patientensicherheit zu gewährleisten. Es gibt Prozesse, auf die das besonders zutrifft, wie die Qualitätsprüfung nach der Produktabfüllung in Primärpackmittel, wie Spritzen, Fläschchen oder Ampullen. Hier gilt es mögliche Produktdefekte, Verunreinigungen oder gar Kontamination zu erkennen und das in jedem einzelnen Produkt – daher spricht man von einer 100%-Kontrolle.
Wissen ist Wettbewerbsvorteil
Ob Branchennews, innovative Produkte, Bildergalerien oder auch exklusive Videointerviews. Sichern auch Sie sich diesen Informationsvorsprung und abonnieren Sie unseren redaktionellen Branchen-Newsletter rund um das Thema Pharma.
Für die Qualitätsprüfung gibt es drei Varianten: Die manuelle Prüfung aller Produkte durch den Menschen, die halbautomatische Prüfung durch maschinelle Unterstützung des Menschen und die vollautomatische Inspektion durch die Maschine. Bei Letzterer machen mehrere Kameras Bilder von jedem Produkt. Diese werden in Echtzeit per Software ausgewertet und die fehlerhaften Produkte aussortiert.
Dieses Verfahren birgt jedoch technische Limitierungen, vor allem bei der Inspektion von Produkten, bei denen die triviale Zuordnung zu „Gut-“ oder „Schlechtprodukt“ nicht möglich ist. Hintergrund ist, dass die Bildauswertung heutzutage überwiegend durch klassische, regelbasierte Methoden wie Grauwert-Analysen erfolgt. Dies bedingt teils hohe Fehlauswurfraten, also den fehlerhaften Auswurf von „Gutprodukten“.
Die Folge ist in aller Regel ein manueller Zweitabgleich dieser Produkte, um erneut gute von schlechten Produkten zu trennen. Dieser zeit- und ressourcenintensive Prozess führt für pharmazeutische Unternehmen zu Kosten im einstelligen Millionenbereich. Diese können vermieden werden, indem das menschliche Inspektions-Fachwissen der vollautomatischen Anlage zugänglich gemacht wird, beispielsweise durch lernende Systeme.
Die Rolle des maschinellen Lernens
Lernende Systeme können menschliches Fachwissen abbilden und in einer technischen Struktur widerspiegeln. Grob unterschieden wird beim maschinellen Lernen in „Supervised Learning“-Methoden (dt. bewachtes Lernen) und „Unsupervised Learning“-Methoden (dt. unüberwachtes Lernen). Im unbewachten Lernen werden Datensätze vorgelegt, ohne dass diese vorher aufwändig klassifiziert wurden.
Das lernende System versucht Muster, Gruppierungen oder ähnliche Strukturen zu erkennen, erhält aber keine „Belohnung“ für erlernte Inhalte. Der Prozess des Lernens ist daher schwierig zu beeinflussen, da er rein auf Beobachtung basiert. Im überwachten Lernen wiederum werden Datensätze klassifiziert, d.h. bereits vor dem Lernprozess liegen relevante Informationen über die Daten vor. Im Lernprozess werden diese Daten verwendet, um dem Lernsystem „Belohnungen“ bei korrekt erlernten Inhalten auszusprechen. Das ermöglicht die Steuerung des Lernverhaltens.
„Supervised Learning“-Methoden bieten dementsprechend Möglichkeiten für die visuellen Inspektion. Inspektionsspezialisten klassifizieren Bilder vor, anhand derer das System lernt, Entscheidungen zu treffen. Gerade bei schwierig zu inspizierenden Produkten bringt dieser Ansatz signifikante Vorteile, da er auf der Einschätzung und dem Wissen der menschlichen Inspektionsspezialisten beruht.
Die mathematischen Grundlagen von lernenden Systemen sind zwar schon seit vielen Jahren bekannt, der industrielle Einsatz ist jedoch dem enormen Anstieg der Verarbeitungsleistungen und den Errungenschaften der Mikroelektronik zu verdanken.
Wie maschinelles Lernen die visuelle Inspektion revolutioniert
„InspectifAI“ hat es sich zum Ziel gesetzt, hochqualitative neuronale Netze unter Beachtung aller regulatorischen Rahmenbedingungen in den visuellen Inspektionsmaschinenbau zu bringen. Und das „maschinen-agnostisch“, also unabhängig von spezifischen Inspektionsmaschinenherstellern. Der hochtechnologische Ansatz nutzt u. a. Edge Computing als Brücke zwischen Inspektionsmaschine und cloudbasierter Software.
Um die visuellen Inspektionssysteme zu optimieren, muss zunächst eine Edge Device an die Inspektionsmaschine angebunden werden. Dieses unterstützt die Maschine z. B. bei der systematischen Akquise und Speicherung von Bilddaten in der Cloudumgebung sowie das lokale Aufspielen und der effiziente Betrieb des neuronalen Netzes. Nachdem die relevanten Bilddaten einmalig aufgenommen wurden, werden sie mit Software-Unterstützung klassifiziert.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Abbildung 1 zeigt beispielhaft eine Auflistung solcher Klassifizierungsaufgaben, deren individueller Fortschritt nachverfolgt werden kann.
Abbildung 1: Screenshot des KI-Systems
(Bild: InspectifAI)
Wenn sich ein Inspektionsexperte in die Klassifizierungslösung einloggt, sieht er die ihm zugewiesenen Klassifizierungsaufgaben. Auf Abbildung 2 sieht man beispielhaft eine Bildklassifizierung hinsichtlich der Fehlerklassen „Partikel“ und „Glasriss“.
Abbildung 2: visuelle Vialkontrolle
(Bild: InspectifAI)
Der nächste Schritt nach der Klassifizierung der relevanten Bildmengen ist das Training des neuronalen Netzes. Dazu werden Bildmengen in Submengen unterteilt. Im Trainingsprozess wird das Trainingsdatenset zur Ausbildung von Knotengewichtungen, Anzahl der Ebenen u. ä. genutzt. Das Modell lernt in diesem Schritt Bildcharakteristiken und Muster, die letztlich zur Entscheidung des neuronalen Netzes führen.
Durch das statistisch unabhängige Testdatenset werden dem neuronalen Netz ihm unbekannte Bilder gezeigt und deren Klassifizierungs- und Abbildungstreue geprüft. So erhält man letztlich ein Modell, das in der Lage ist, aufgrund der richtigen Bildcharakteristiken die richtige Entscheidung zu treffen.
Um das zu gewährleisten, existieren neben den Parametern der Trainings- und Testset-Aufteilung zahlreiche weitere Parameter, die zusammen einen hyperdimensionalen Parameterraum aufspannen. Die iterative Arbeit und das Wissen der Datenexperten besteht aus dem Modelltraining sowie einer tiefgründigen Modell- und Datenanalyse.
Die Modellentwicklung wird mit Hilfe dieses Wissens gesteuert und führt letztlich zu einem hochqualitativen Modell, das auch die regulatorischen Anforderungen der Pharmaindustrie erfüllt. Dem Modelltraining kommt dabei ebenfalls die Rolle der Qualitätssicherung zu. Werden z. B. falsch klassifizierte Bilddaten zum Modelltraining verwendet, wird die resultierende Modellschwäche von Datenexperten erfasst und mittels Re-Klassifizierung behoben.
Auf das Edge Device aufgespielt, wird das Modell aber erst, sobald es alle Anforderungen hinsichtlich der Klassifizierungsgüte erfüllt und als Modellstand versioniert wurde. Letztlich wird das Wissen des Menschen, indem es durch die aktive Klassifizierungsaufgabe dokumentiert und in eine technische Struktur gebunden wird, der Inspektionsmaschine zugänglich. Diese Verschränkung von menschlichem und maschinellem Wissen gewährleistet eine bessere Inspektionsentscheidung bei minimaler Fehlauswurfrate.
Zukunftsperspektive für lernende Systeme
Für das große Potential von lernenden Systemen bei der visuellen Sichtprüfung sprechen, auch über das bisher beschriebene Szenario hinaus, mehrere Punkte. Ein immenser Vorteil ist, dass sich das in Form von neuronalen Netzen „gebundene Wissen“ sehr gut transferieren lässt. Das ermöglicht das mehrfache Nutzen von neuronalen Netzen maschinen- und standortübergreifend, was zugleich den Aufwand zur Modellerstellung deutlich verringert.
Zugleich kann ein neuronales Netz, das für ein spezifisches pharmazeutisches Produkt entwickelt wurde, für weitere, physikalisch sehr ähnliche Produkte verwendet werden. Das funktioniert umso besser, je ähnlicher die Definition von Gut- und Schlechtprodukt beider Produkte ist.
Mit wenig Aufwand und geringer Bildmenge kann bereits existierenden Modellen zusätzliches Wissen in Form durch abermalige Trainings vermittelt werden. Das daraus resultierende neue Modell kann dann auf Basis des Wissens über viele Produkte eine qualitativ vertrauenswürdige Entscheidung für Neuprodukte treffen.
Kurzgesagt, maschinelles Lernen stellt für die visuelle Inspektionsaufgabe einen Quantensprung dar. Geringere Konfigurationsaufwände, starke Leistungsverbesserung und hohes Skalierungspotential, sind nur drei Aspekte, die Aufzeigen, dass die visuelle Qualitätskontrolle in der Pharmaindustrie sich zeitnah stark verändern wird. . n