Jahresbericht 2016

Mit Ende 2016 geht nicht nur ein ereignisreiches Jahr für die Prozessanalytik zu Ende, sondern auch die Amtszeit des dritten Vorstandes des Arbeitskreises. In den vergangenen vier Jahren hat sich der Arbeitskreis als Plattform für den Trialog zwischen Anwendern, Forschern und Geräteherstellern zum Thema Prozessanalytik stetig weiterentwickelt und verzeichnet einen kontinuierlichen Zuwachs an Mitgliedern, insbesondere aber auch an Teilnehmern bei den Fachveranstaltungen.

Diese erfreuliche Entwicklung wäre ohne die tatkräftige und vor allem kompetente Unterstützung durch die Mitglieder des erweiterten Vorstands kaum möglich gewesen. An dieser Stelle sei daher nochmal ein großer Dank an die Kolleginnen und Kollegen des erweiterten Vorstandes gerichtet, dies natürlich verbunden mit der Hoffnung auf weitere Jahre fruchtbarer Zusammenarbeit im Arbeitskreis Prozessanalytik. Aus der Vorstandsarbeit endgültig verabschieden werden sich zum Ende des Jahres Herr Dr. habil. Wolf-Dieter Hergeth, Herr Prof. Dr. Rudolf Kessler und Herr Dr. Michael Kloska. Allen drei Kollegen gebührt ein aufrichtiger und inniger Dank für ihr besonderes Engagement, das den Arbeitskreis seit seinem Bestehen sehr maßgeblich geprägt hat.

Mit Beschluss durch die letzte Mitgliederversammlung wird der neue Vorstand ab 2017 um ein viertes ordentliches Mitglied erweitert, das insbesondere die Interessen der Jung-Prozessanalytiker vertreten wird. Gerade im Bereich des akademischen Nachwuchses verzeichnet der Arbeitskreis eine anhaltend zunehmende Resonanz, die durch diesen gezielten Ausbau der Mitgliedervertretung  noch weiter gefördert werden soll.

Im Jahr 2016 wurde ein Mitgliederzuwachs von 25 Mitgliedern verzeichnet – darunter 13 Jungmitglieder. Von Jahresbeginn an kletterte die Mitgliederzahl von 314 (62) auf 339 (75) zum November 2016. Knapp ein Viertel der Mitglieder gehören mittlerweile zur Gruppe der Studierenden oder Auszubildenden (Angaben in Klammern).

10. Interdisziplinäres Doktorandenseminar 28. Februar–01. März 2016 in Berlin

Das 10. Interdisziplinäre Doktorandenseminar und damit das erste Jubiläumsseminar startete nach dem großen Erfolg im letzten Jahr erneut mit einem Design-Thinking-Workshop zum Thema „Sensorik und Analytik für zu Hause“. Das Thema der Sensorik für zu Hause ist zurzeit von besonders großem Interesse. Nach Impulsvorträgen von Dr. Tobias Merz (Lonza AG, Visp/CH) und Dr. Winfred Kuipers (Krohne Messtechnik GmbH, Duisburg), sowie von Dr. Michael Maiwald (BAM, Berlin) mit dem Thema: „Miniaturisierung von Sensorik und Analytik“ ging es unter der Moderation von Herrn Merz sofort an die mehrstufige Konzeptgestaltung der drei Schwerpunktthemen: „Home Assist“, „Wearables“ und „Mobility“.

Die Fachvorträge zeichneten sich durch ihre Vielfalt an Themen und Anwendungsmöglichkeiten aus.  Für alle Themen zeichnet sich gleichermaßen der Trend ab, dass neben dem Erzeugen analytischer oder sensorischer Daten auch ein intelligentes Datenmanagement gefordert ist, um die Informationen zu Entscheidungsdaten zu verarbeiten und entsprechend zu präsentieren.

Auch die Poster zeigten eine große Vielfalt an Forschungsbereichen. Von der Charakterisierung und Identifizierung von Pollen mit Hilfe von SERS, MALDI-TOF-MS und neuronalen Netzen, über Bioprozessüberwachung/-Regelung von CHO-Zellkultivierungen, bis hin zur Prozesskontrolle an hoch trüben Polymerdispersionen mit PDW-Spektroskopie, war alles vertreten.

Der Abschlussvortrag des Doktorandenseminars wurde von Dr. Roland Hass (Universität Potsdam und PDW Analytics GmbH, Potsdam) mit dem Titel „Vom PAT Doktoranden zum Geschäftsführer – Eine „Patt“-Situation“ gehalten. Dabei wurde den Teilnehmerinnen und Teilnehmern gezeigt, was bei einer Firmengründung zu beachten ist und welche ungeahnten Probleme auftreten können.

Analytica Conference München – Sessions „Optimal Experimental Design“ und „Spectroscopic Techniques for Bioprocess Monitoring”

Zur im Mai 2016 stattfindenden Analytica Conference in München organisierte Prof. Dr. Bernd Hitzmann (Universität Hohenheim) vom AK Prozessanalytik gleich zwei gut besuchte Sessions. Die Versuchsplanung hat in den letzten Jahren deutlich an Bedeutung gewonnen, obgleich die ersten Arbeiten hierzu schon vor fast hundert Jahren von Herr Ronald Fisher durchgeführt wurden. Im Unterschied zu einer Versuchsplanung, die ohne Vorwissen über den betrachteten Prozess auskommen muss, wird bei der optimalen Versuchsplanung Vorwissen in Form eines mathematischen Modells vorausgesetzt. In diesen Fällen können gezielt Versuchspläne berechnet werden, die mit geringsten Aufwand zu einem Höchstmaß an Information über den Prozess führen. In der Session „Optimal experimental design“ wurde an unterschiedlichen Beispielen die Vorteile dieser Versuchsplanung aufgezeigt. Spektroskopischen Verfahren zur Überwachung von biotechnischen Prozessen zeichnen sich dadurch aus, dass sie berührungslos und ohne Reaktanden eingesetzt werden können und dass das Analyseergebnis nahezu ohne Zeitverzögerung zur Verfügung steht. Zumeist ist man auf chemometrische Auswerteverfahren wie die Hauptkomponenten­analyse angewiesen. Die Beiträge einer weiteren Session „Spectroscopic Techniques for Bioprocess Monitoring” umfassten sie die Herausforderungen, Einschränkungen und das Potential spektroskopischer Verfahren.

12. Kolloquium Prozessanalytik in Berlin zum Themenschwerpunkt: „Prozessanalytik in der Pharma- und Lebensmitteltechnologie“

Das 12. Kolloquium würdigte mit dem diesjährigen Schwerpunkt auf der Pharma- und Lebensmittel-technologie zwei technisch-wissenschaftliche Bereiche, die sich zum einen die Aufgabe gestellt haben, für jeden und jede Krankheit etwas parat zu haben, und zum anderen daran arbeiten, nicht nur den Hunger zu bekämpfen, sondern täglich auch eine unermessliche Auswahl an Lebensmitteln für eine ausgewogene Ernährung zur Verfügung zu stellen.

Etwa 150 Teilnehmerinnen und Teilnehmer kamen zur Prozessanalytik-Fachtagung, die in diesem Jahr bei der Bayer Pharma AG in Berlin zu Gast war. Zum zweiten Mal wurde dem Kolloquium eine Opening Session mit Einführungsvorträgen zum Themenschwerpunkt am Vortrag vorangestellt, die von über 100 Teilnehmerinnen und Teilnehmern besucht wurde. Das Programm wurde durch 16 Aussteller und fast 30 Posterbeiträge abgerundet.

In beiden Arbeitsgebieten bestehen nach wie vor große Herausforderungen. Phamaka etwa stehen bei weitem nicht überall auf der Welt in gleichmäßiger Qualität und bezahlbar zur Verfügung. Auch die noch immer schnell wachsende Bevölkerung sowie der fortschreitende Klimawandel stellen die Lebensmittel-produzierende Industrie sowie die Erzeuger vor die immer größer werdende Aufgabe, nachhaltigere und insbesondere ergiebigere Verfahren zu entwickeln und umzusetzen. Die Prozessanalytik kann und wird an diesen Stellen ihren Beitrag leisten.

Die Anforderungen an die Prozessanalytik für die Pharma- und Lebensmittelproduktion weisen viele Parallelen auf. So sind beide Bereiche heutzutage regulatorischen Anforderungen unterworfen, die auf der Basis einer risikobasierten Vorgehensweise beruhen, womit Entwicklungs-, Herstellungs- und Qualitätssicherungsprozesse sowohl für die Produzenten als auch für die überwachenden Behörden deutlich verbessert und beschleunigt worden sind. Diese erfreuliche Entwicklung hat ihr Ende aber noch lange nicht gefunden und die die Verfahren befinden sich noch immer in einem starken Wandel. Dennoch haben sie bereits jetzt dazu beigetragen, dass zum Beispiel viele Produktionsmaschinen und Teilanlagen ihre Prozessanalytik bereits an Bord haben, wie etwa der Mähdrescher mit eingebauter Online-Spektroskopie und GPS-Kartierung für das Precision Farming oder die Gefriertrocknungsanlage mit 100-%-Trocknungskontrolle am vereinzelten Produkt.

Auf dem Kolloquium wurden die wichtigsten Herausforderungen zu den Themen technologie- und verbrauchergetriebenen Herstellungsverfahren, von Phenotyping und Digital Farming über rote und grüne Biotechnologie bis hin zur Laborautomation unter Einsatz der Hochdurchsatz-Experimentation aufgegriffen. Die in der Pharma- und Lebensmittelherstellung gesteckten Ziele sind hoch und entsprechend groß sind die zu erwartenden Vorteile: Im sogenannten Real Time Release wird die Qualität des finalen (Zwischen-)Produktes ausschließlich aus In-Prozess-Kontrollen oder Prozessdaten abgeleitet. Für jede produzierte Charge lässt sich die Konformität zu akzeptierten Qualitätsmerkmalen aufzeigen und diese damit ohne weitere Endkontrolle freigeben. Der konsequente Einsatz von Real Time Release ist eine der wesentlichen Voraussetzungen für die kontinuierliche Produktion (Continuous Manufacturing), die die Pharmazeutische Industrie eines Tages adaptieren wird. Im historischen Rückblick haben sich fast ausnahmslos alle Zweige der Produktion in der Prozessindustrie mehr und mehr hin zu einer kontinuierlichen Produktion gewandelt. Man kann davon ausgehen, dass die Qualitätssicherungskosten bei konsequenter Implementierung von PAT von derzeit ca. 30 % in zukünftig einen kleinen einstelligen Prozentbereich der COGS gesenkt werden können. Gleichzeitig führt der Erkenntnisgewinn zur Verbesserung der Produkte selbst sowie ihrer Herstellungsprozesse. Die Qualität wird sozusagen intrinsisch eingebaut. So kann die Sicherheit für den Verbraucher sogar noch gesteigert werden und der Kostenanstieg im Gesundheitssystem wird deutlich gedämpft.

Prozessanalytik-Award 2016 des AK Prozessanalytik

 Der Prozessanalytik-Award 2016 des AK Prozessanalytik konnte im Rahmen des 12. Kolloquiums Prozessanalytik 28.-30.11.2016 in Berlin dieses Jahr zum achten Mal verliehen werden. Der Preis wird für die besten Qualifizierungsarbeiten auf dem Gebiet der Prozessanalytik im zurückliegenden Jahr vergeben. Aus den Bewerbungen hat ein Preis-Komitee des Vorstands des Arbeitskreises die Preisträgerinnen ausgewählt. Der Preis besteht jeweils aus einer Urkunde, einem Preisgeld in Höhe von € 1.000 und einer zweijährigen kostenfreien Mitgliedschaft in der GDCh oder DECHEMA.

Der Preis wurde verliehen an Herrn Marco Wunsch, BASF SE für seine Masterarbeit: ,,Untersuchung der Eignung des Verfahrens Multiplexing GC für prozessanalytische Messungen“. Seine Masterarbeit fertigte Herr Wunsch an der Hochschule Mannheim an.

In seiner Arbeit untersuchte Herr Wunsch die Multiplexing GC für prozessanalytische Messungen. Dabei wurde eine Analysenmethode mit dem Verfahren der Hadamard-Transformations-basierten Multiplex-Gaschromatographie (mpGC) entwickelt. Damit gelang der quantitative Nachweis von Benzol, Toluol, Ethylbenzol und den 3 Strukturisomeren des Xylols (BTEX) im Messbereich von 1–10 ppb in einem CO2 Strom. Die Probe wird mit Hilfe eines Multiplex-Injektors bis zu 512 Mal nach einer pseudozufälligen Sequenz in einen Gaschromatographen injiziert. Der Testchromatograph lieferte die gesamte Zeit zuverlässig Messwerte. Damit konnte die Robustheit und Zuverlässigkeit der Messmethode mpGC als prozessanalytische Messung in einer chemischen Produktionsanlage gezeigt werden.

 

Ad-Hoc Arbeitskreise

Die Miniaturisierung von optischen Spektroskopie-Systemen (MOSS) ist ein permanent fortschreitender Prozess. In kurzer Folge werden immer kleinere Module und intelligente Cloud-basierte Systeme angekündigt. Dieser Trend beeinflusst zunehmend die Prozessanalytik, dies ließ sich durch die Mitglieder der Arbeitsgruppe klar herausarbeiten. Auch in Zusammenhang mit der Digitalisierung und Vernetzung von Prozessen im Zuge von Industrie 4.0. wird diese Entwicklung weiter an Fahrt gewinnen. Von 2014 bis 2016 beschäftigte sich daher die Ad-Hoc-Arbeitsgruppe „Miniaturisierung von Messsystemen – eine Chance für die Prozessanalytik“ mit diesem Thema.

Der Ad-Hoc Arbeitskreis „Spannungsfeld zwischen daten- und modellbasierter Prozessführung“ war 2016 sehr aktiv und hat sein Thema in mehreren Treffen stark vorangebracht. Anfang 2017 werden die erste wissenschaftliche Publikation des Arbeitskreises sowie ein Whitepaper erscheinen.

Berlin, November 2016, gezeichnet

Elke Hilscher, Dr. Michael Maiwald, Dr. Jens Nolte, Dr. Thomas Steckenreiter
Vorstand des AK Prozessanalytik

mit Dank an Prof. Dr. Bernd Hitzmann