14. – 15. november 2011 fulda jahrestreffen der...

71
TAGUNGSBAND 14. – 15. November 2011 Fulda Jahrestreffen der Fachgemeinschaft Prozess-, Apparate- und Anlagentechnik www.processnet.org/paat2011

Upload: nguyenquynh

Post on 18-Sep-2018

217 views

Category:

Documents


3 download

TRANSCRIPT

tagung sb a nd

14. – 15. November 2011 Fulda

Jahrestreffen der Fachgemeinschaft Prozess-, apparate- und anlagentechnikwww.processnet.org/paat2011

wissenschaftliches komitee

wissenschaftliches komiteeR. Goedecke FrankfurtamMain

R.W. Kessler Reutlingen

R.-H. Klaer Krefeld

J.S. Kussi (Vorsitz) Dormagen

A. Lohrengel Clausthal

K. Mitropetros FrankfurtamMain

J. Rudolph Ludwigshafen

G. Schembecker Dortmund

U.P. Stramma Dortmund

inhalt

WISSENSCHAFTLICHES KOMITEE 2

PROGRAMMÜBERSICHT 4

VORTRAGSPROGRAMM 6 Montag,14.November2011 6

Dienstag,15.November2011 9

KURZFASSUNGEN 11

Montag,14.November2011 12

Dienstag,15.November2011 46

Seite

3

Montag, 14. November 2011

8:15 Begrüßung

Plenarvorträge

8:30 Gaida

9:00 Kockmann

9:30 Feldmann

10:00 Kaffeepause

CAE Datenintegration Festigkeit und Auslegung Prozessentwicklung und -optimierung in

Multi-Purpose Anlagen

10:30 Zgorzelski 10:30 Naumann 10:30 Buchaly

11:00 Jäger 11:00 Pansegrau 11:00 Kohnke

11:30 von Wedel 11:30 Schettki-Schäferdieck 11:30 Lier

12:00 Riedelmeier 12:00 Schluck

12:30 Mittagspause

CAE Datenintegration Rohrleitungstechnik Prozessführung

13:30 Tauchnitz 13:30 Schlücker 13:30 Häfele

14:00 Witt 14:00 Wohnsland 14:00 Piechottka

14:30 Pilatzki 14:30 Bodeit 14:30 Finkler

15:00 Kaffeepause

Produktionsplanung Prozessführung

15:30 Xu 15:30 Sitzung AA PVP 15:30 Wendt

16:00 Mubarak 16:00 Vargas

16:30 Subbiah

17:15 Sitzungen FGr PAT und AA KFAA

20:00 Abendliches Beisammensein im Museumscafé Fulda

programmübersicht

4

Dienstag, 15. November 2011

Plenarvortrag

8:30 Bericht aus der Beiratssitzung PAT

Modulare Anlagen Verfahrensentwicklung

9:00 Buchholz 9:00 Bauer

9:30 Müller 9:30 Dosta

10:00 Sievers 10:00 Harrmann

10:15 Steimel

10:30 Wörsdörfer 10:30 Brandt

10:45 Skiborowski

11:00 Kaffeepause

aus der PAT Verfahrensentwicklung

11:30 Obst 11:30 Slaby

12:00 Günther 12:00 Recker

12:15 Ernst

12:30 Kockmann 12:30 Yildirim

12:45 Kerimoglu

13:00 Mittagspause

14:00 Ende der Veranstaltung

14:00 Sitzung AA PPW

programmübersicht

5

rubrik

Montag, 14. November 20118:15 Begrüßung

Plenarvorträge

8:30 CleanTechNRW – Industrielle Klimaschutztechnologien I.Gaida,BayerMaterialScienceAG,Leverkusen

12

9:00 Neues zur 50%-Idee – Konzept des Gesamtvorhabens und Entwicklung eines Pilotprojektes N.Kockmann,TUDortmund;R.Handl,Dechemae.V.,Frankfurt

13

9:30 Forschung liebt Gesellschaft: Neue Netzwerke im digitalen Zeitalter A.Feldmann,BASFSE,Ludwigshafen

14

10:00 Kaffeepause

CAE Datenintegration

10:30 Automatischer, elektronischer Datenaustausch für Maschinen, Apparate und Rohrleitungen auf Basis der NE 100 und der PAS 1040 unter Anwendung von CAE-Systemen P.Zgorzelski,BayerTechnologyServicesGmbH,Leverkusen

15

11:00 Werkzeug für die formalisierte Prozessbeschreibung VDI/VDE-Richtlinie 3682 auf Basis von MS Visio® L.Christiansen,T.Jäger,A.Fay,Helmut-Schmidt-Universität,Hamburg

17

11:30 Austausch von Objektdaten mittels der ISO 15926 – Erste Erfahrungen aus der chemischen Industrie am Beispiel von Apparatedaten A.Teinert,A.Franke,H.Mannsperger,BASFSE,Ludwigshafen;H.Temmen,EvonikDegussaGmbH,Marl;F.Anhäuser,T.Kügerl,EvonikDegussaGmbH,Hanau;A.Strathmann,BayerTechnologyServicesGmbH,Dormagen;L.vonWedel,BayerTechnologyServicesGmbH,Leverkusen;J.Kussi,BayerTechnologyServicesGmbH,Dormagen

19

12:30 Mittagspause

CAE Datenintegration

13:30 PLS-Software im CAE erstellt und ins PLS heruntergeladen – Projektbericht für ComosPT und SIMATIC PCS7 T.Tauchnitz,Sanofi-AventisDeutschlandGmbH,Frankfurt

20

14:00 Unterstützung des „Workflows“ im Umfeld der PLT-Anwendungen, Verbesserung der Schnittstelle zwischen Anlagen- und MSR-Planer W.Witt,TUCottbus

21

14:30 Bearbeitung und Austausch von SmartPlant P&ID Datenbanken mit unterschiedlichen Konfigurationen zwischen Owner-Operator und Engineering Kontraktoren: Untersuchung eines Hybrid-Ansatzes F.Anhäuser,EvonikIndustriesAG,Hanau;A.Wagner,BayerTechnologyServicesGmbH,Leverkusen;G.Pilatzki,UhdeGmbH,Dortmund

22

15:00 Kaffeepause

Produktionsplanung

15:30 Koordination von Scheduling-Lösungen für verschiedene Produktionsanlagen C.Xu,G.Sand,ABBForschungszentrum,Ladenburg;S.Engell,TUDortmund

23

16:00 Total Supply Chain Transparency – Vollständige Integration von Material- und Datenfluss im MES H.K.Mubarak,S.Schmidt,C.Fuchs,BASFSE,Ludwigshafen

25

16:30 Production Scheduling in the Process Industries Using Timed Automata Models S.Subbiah,S.Engell,TUDortmund

26

17:15 Sitzungen FGr PAT und AA KFAA

20:00 Abendliches Beisammensein im Museumscafé Fulda

vortragsprogramm

Seite

6

vortragsprogramm

Montag, 14. November 20118:15 Begrüßung

Plenarvorträge

8:30 CleanTechNRW – Industrielle Klimaschutztechnologien I.Gaida,BayerMaterialScienceAG,Leverkusen

12

9:00 Neues zur 50%-Idee – Konzept des Gesamtvorhabens und Entwicklung eines Pilotprojektes N.Kockmann,TUDortmund;R.Handl,Dechemae.V.,Frankfurt

13

9:30 Forschung liebt Gesellschaft: Neue Netzwerke im digitalen Zeitalter A.Feldmann,BASFSE,Ludwigshafen

14

10:00 Kaffeepause

Festigkeit und Auslegung

10:30 Technologiegerechte Hochdruckbehälter in Faserverbundbauweise M.Naumann,W.Nendel,L.Kroll,TUChemnitz

28

11:00 Modellentwicklung zur Vorhersage diffuser Emissionen aus gasförmig beaufschlagten Flanschverbindungen L.Pansegrau,G.Schembecker,C.Bramsiepe,TUDortmund

29

11:30 Flanschberechnungen nach EN 1591 – Vergleich zu AD anhand von Berechnungsbeispielen B.Schettki-Schäferdieck,IBM,Mülheim

30

12:00 Laseroptische Erfassung der Geschwindigkeitsverteilung in einer Rohrleitung und der Einfluss der Fluid-Struktur-Wechselwirkung bei Druckstößen S.Riedelmeier,S.Becker,E.Schlücker,UniversitätErlangen-Nürnberg

31

12:30 Mittagspause

Rohrleitungstechnik

13:30 Kavitationsphänomene in oszillierenden Verdrängerpumpen H.Schlücker,UniversitätErlangen-Nürnberg

32

14:00 Zukunft des Anlagensbaus in der EU Normungsfeld F.Wohnsland,VDMAe.V.,Frankfurt

33

14:30 Vom Planungsmodell zum As-built Modell (Laserscanning) B.Bodeit,PetersEngineeringAG,Ludwigshafen

34

15:00 Kaffeepause

15:30 Sitzung AA PVP

17:15 Sitzungen FGr PAT und AA KFAA

20:00 Abendliches Beisammensein im Museumscafé Fulda

Seite

7

vortragsprogramm

Montag, 14. November 2011

8:15 Begrüßung

Plenarvorträge

8:30 CleanTechNRW – Industrielle Klimaschutztechnologien I.Gaida,BayerMaterialScienceAG,Leverkusen

12

9:00 Neues zur 50%-Idee – Konzept des Gesamtvorhabens und Entwicklung eines Pilotprojektes N.Kockmann,TUDortmund;R.Handl,Dechemae.V.,Frankfurt

13

9:30 Forschung liebt Gesellschaft: Neue Netzwerke im digitalen Zeitalter A.Feldmann,BASFSE,Ludwigshafen

14

10:00 Kaffeepause

Prozessentwicklung und -optimierung in Multi-Purpose Anlagen

10:30 Process Improvement Cost Cascade (PICC) – Eine systematische Methodik zur Steigerung der Ressourceneffizienz vielstufiger Produktionsprozesse C.Buchaly,C.Frerick,G.Ronge,BayerTechnologyServicesGmbH,Leverkusen

35

11:00 Simulationsgestützte Umsetzung modularer Anlagenkonzepte mit Entscheidungen unter Unsicherheit (I) M.Kohnke,D.Schmalz,MerckKGaA,Darmstadt

36

11:30 Simulationsgestützte Umsetzung modularer Anlagenkonzepte mit Entscheidungen unter Unsicherheit (II) S.Lier,M.Grünewald,Ruhr-UniversitätBochum;D.Schmalz,M.Kohnke,MerckKGaA,Darmstadt

37

12:00 Prozessanalyse Batch- und Life Science – Eine neue Methode für die Prozessoptimierung A.Schluck,C.Frerick,W.Dietrich,G.Ronge,BayerTechnologyServices,Leverkusen

38

12:30 Mittagspause

Prozessführung

13:30 Dynamische Maschinensimulation bei Linde Engineering M.Häfele,M.Kamann,TheLindeGroup,Pullach

39

14:00 Bedeutung von Daten in der Prozessführung U.Piechottka,EvonikIndustriesAG,Hanau

41

14:30 Realisierung von Advanced Control in einem Polymerproduktionsprozess T.Finkler,S.Engell,TUDortmund;M.Kawohl,EvonikIndustries,Marl;U.Piechottka,EvonikIndustries,Hanau

42

15:00 Kaffeepause

Prozessführung

15:30 Methodiken zur Generierung optimaler Fahrschemata für Batch Destillationsprozesse in der chemischen Industrie M.Wendt,G.Hofmann-Jovic,M.Strack,InfraservGmbH&Co.KnapsackKG,Hürth

43

16:00 Significant reduction in the start-up time of dividing wall distillation column systems with the implementation of adequate strategies M.Vargas,G.Fieg,TUHamburg-Harburg

45

17:15 Sitzungen FGr PAT und AA KFAA

20:00 Abendliches Beisammensein im Museumscafé Fulda

Seite

8

vortragsprogramm

Dienstag, 15. November 2011

Plenarvortrag

8:30 Bericht aus der Beiratssitzung PAT

Modulare Anlagen

9:00 F3 Factory – A European Project Aiming at Modular Process Design S.Buchholz,T.Grömping,BayerTechnologyServicesGmbH,Leverkusen

46

9:30 Innovative Produkt- und Prozessentwicklung mittels mobiler und modularer Miniplant-Technik M.Müller,TUBerlin;H.Thielert,UhdeGmbH,Dortmund;G.Wozny,TUBerlin

47

10:00 Modular Plant Design: Selection Concept and Economics S.Sievers,T.Seifert,C.Bramsiepe,G.Schembecker,TUDortmund

49

10:30 Erweiterte Kapitalwertanalyse modularer chemischer Anlagen zur Quantifizierung von Flexibilität und Unsicherheit M.Grünewald,S.Lier,D.Wörsdörfer,Ruhr-UniversitätBochum

51

11:00 Kaffeepause

aus der PAT

11:30 Wissensbasierte Assistenzsysteme für modulares Engineering M.Obst,F.Doherr,L.Urbas,TUDresden

52

12:00 Anwendung einer integralen Bewertungsmethodik für die Standortplanung und Dimensionierung von Wasserstoff-Elektrolyse-Anlagen T.Günther,W.Witt,TUCottbus

54

12:30 Aus der Industrie zur Hochschule – Die ersten 100 Tage N.Kockmann,TUDortmund

55

13:00 Mittagspause

14:00 Ende der Veranstaltung

14:00 Sitzung AA PPW

Seite

9

vortragsprogramm

Dienstag, 15. November 2011

Plenarvortrag

8:30 Bericht aus der Beiratssitzung PAT

Verfahrensentwicklung

9:00 Herausforderung Feststoffprozesse: Vom Design bis zum Anfahren K.Bauer,G.Hofmann-Jovic,M.Strack,InfraServGmbH&Co.KnapsackKG,Hürth

56

9:30 Anwendung des sequentiell-modularen Ansatzes auf die dynamische Fließschemasimulation von Feststoffprozessen M.Dosta,S.Heinrich,E.-U.Hartge,M.Pogodda,C.Reimers,TUHamburg-Harburg

57

10:00 Kostenabschätzung in frühen Phasen der Prozessentwicklung M.Harrmann,G.Schembecker,TUDortmund

58

10:15 Werkzeugunterstützung für den konzeptionellen Entwurf kontinuierlicher chemischer ProzesseJ.Steimel,S.Engell,TUDortmund

59

10:30 Neue Methode für die Synthese von großen Wärmeübertragernetzwerken C.Brandt,G.Fieg,TUHamburg-Harburg;X.Luo,Helmut-Schmidt-Universität,Hamburg;O.Engel,XRGSimulationGmbH,Hamburg

61

10:45 Optimierungsbasierte Entwurfsmethodik für Hybridprozesse aus Rektifikation und Pervaporation/Dampfpermeation M.Skiborowski,W.Marquardt,RWTHAachen

63

11:00 Kaffeepause

Verfahrensentwicklung

11:30 Simulatorübergreifende Modellierung von Hydrierreaktoren O.Slaby,I.Thomas,LindeAG,Pullach

64

12:00 Schnelle Bewertung von gekoppelten Reaktions- und Trennprozessen S.Recker,W.Marquardt,RWTHAachen

65

12:15 Eine neue Methodik für die verfahrenstechnische Auslegung von Apparaten mit überlagerter mehrkriterieller Optimierung unter ökonomischen Kriterien P.Ernst,G.Fieg,TUHamburg-Harburg;F.Schlüter,V.Green,ENCOSEngineering&Construction,Hamburg

66

12:30 Entwicklung eines Modellierungsansatzes für Rektifikationskolonnen mit Anstaupackungen Ö.Yildirim,U.Brinkmann,E.Y.Kenig,UniversitätPaderborn

68

12:45 Model-Based Experimental Analysis of Complex Multiphase Reaction Systems N.Kerimoglu,A.Mhamdi,W.Marquardt,RWTHAachen

70

13:00 Mittagspause

14:00 Ende der Veranstaltung

14:00 Sitzung AA PPW

Seite

10

Kurzfassungen

CleanTechNRW – Cluster für industrielle Klimaschutztechnologien I. Gaida, CleanTechNRW GmbH, Düsseldorf „CleanTech“ steht für den Einsatz neuartiger Verfahren, Produkte und

Dienstleistungen zur Leistungssteigerung bei gleichzeitiger Emissionsreduktion und

Ressourcenschonung. Dabei stehen fundamentale Fragestellung wie zum Beispiel die

Frage nach den richtigen Technologien und Kompetenzen, welche die Basis für die

zukünftige Industriegesellschaft in Deutschland bilden, genauso im Vordergrund wie

die Frage nach den besten Wegen in Richtung einer „Low Carbon Society“.

CleanTechNRW adressiert dabei konkrete wirtschaftliche Wachstumsmöglichkeiten

auf Basis innovativer Technologien und Hi-Tech Produkte „Made in Germany“. Dabei

spielen industrieübergreifende Ansätze in der Zukunft eine viel wichtigere Rolle.

Nordrhein-Westfalen mit seinen weltweit führenden Unternehmen im Bereich Chemie,

Energie, Stahl sowie der sich dynamisch entwickelnden Biotechnologie bietet dabei

eine hervorragende Basis, um neue Produkte und Verfahren zu entwickeln, die

weltweit vermarktet und genutzt werden können. Gerade Länder wie China, Indien

oder Brasilien haben ein nachhaltiges Interesse an mehr Klimaschutz und mehr

Nachhaltigkeit im zukünftigen wirtschaftlichen und gesellschaftlichen Handeln.

CleanTechNRW fokussiert sich dabei auf zwei strategische Stoßrichtungen: (1)

Energie- und Wärmespeicher zur Ermöglichung erneuerbarer Energien in

Industrieländern und –regionen sowie (2) Effizienzsteigerung beim Einsatz von

Energie, Material und Ressourcen. Untermauert werden diese Aktivitäten durch den

systematischen Aufbau und die Weiterentwicklung von Kompetenzen und einem

internationalen Netzwerk im Bereich Klimaschutztechnologien und CleanTech.

12

Neues zur 50%-Idee Konzept des Gesamtvorhabens und Entwicklung eines Pilotprojektes

N. Kockmann1, R. Handl2 1 TU Dortmund, BCI, Apparatedesign; 2 Programmbüro 50%-Idee, Frankfurt

Ziel der 50%-Idee ist die Halbierung der Durchlaufzeiten von Investitionsprojekten, z. B. in der Spezialchemie. Dies betrifft alle Phasen von der Entwicklung des Produktionsprozesses an bis zur fertigen Produktionsanlage. Dazu wurden während des Tutzing-Symposiums 2009 mit vielen an dem Prozess beteiligten Fachleuten (Chem. Industrie, Anlagenbauer, Zulieferer und Universitäten) eine Vielzahl von Ideen und Aktivitäten diskutiert, bewertet und in der Folgezeit konkretisiert. Dies beinhaltet z. B. die deutliche Verbesserung von mathematischen Modellen, die Nutzung von skalierbaren Miniplant-Anlagen und Komponenten zur schnelleren Verfahrensentwicklung, die simultane oder stark überlappende Bearbeitung von Entwicklung, Planung und Anlagenbau durch integrierte Informationsnutzung sowie die Minimierung von Beschaffungs-, Bau- und Inbetriebnahmezeiten durch intelligente Modularisierung und Standardisierung. Darüber hinaus sind Themen der Arbeitsorganisation und des Change Managements zu untersuchen, um beschleunigende Faktoren zu identifizieren und Erkenntnisse aus anderen Industriezweigen (z. B. Fertigungsindustrie) zu adaptieren. Die Realisierung dieses Gesamtkonzeptes zur 50%-Idee erfordert von allen Beteiligten (Prozesseigner, Ingenieurfirmen, Zulieferfirmen, Universitäten) eine enge Zusammenarbeit zur Entwicklung neuer Methoden, Technologien und Arbeitsweisen. Zur Entwicklung der verschiedenen Komponenten und Methoden wird als erster Schritt ein Pilotprojekt vorgeschlagen. Damit soll die technische Machbarkeit der Entwicklung von skalierbaren Komponenten unter Berücksichtigung von verbesserter Datenintegration und Modularisierung und die damit verbundene Beschleunigung der Prozessentwicklung nachgewiesen werden. Es wird erwartet, dass nach dem Erreichen von definierten Ergebnissen des Pilotprojektes das o. g. Gesamtprogramm zur 50%-Idee gestartet werden kann und damit für die beteiligte Industrie die Wettbewerbsfähigkeit verbessert wird, deutliche Produktivitätssteigerungen erreicht und Arbeitsplätze gesichert werden.

13

Forschung liebt Gesellschaft - neue Netzwerke im digitalen Zeitalter A. Feldmann, BASF SE, Ludwigshafen

Ein Blog und 1000 Kommentare in knapp 40 Tagen. Mehr brauchte der Mathematiker

Timothy Gowers 2009 nicht, um ein mathematisches Rätsel zu lösen, das

normalerweise mehrere Forscherjahre gekostet hätte. Kollaborative Internetwerkzeuge

- auch web2.0 genannt - scheinen in den Wissenschaften traditionelle Mauern

einzureißen und den Weg freizumachen für effizientere Zusammenarbeit über Fach-,

Regions- und Statusgrenzen hinweg. Wenn Matheblog und Molekültwitter die Zukunft

sind, welche Möglichkeiten ergeben sich für forschende Unternehmen? Der Beitrag

stellt Erfahrungen mit Social Media im Unternehmensalltag vor und gibt Anregungen,

wie sich mit virtuellen Communities im Innovations- und Forschungsbereich neue

Potentiale der Ideenfindung erschließen lassen.

Anja Feldmann hat die Einführung von der internen Social Media Plattform

connect.BASF begleitet und beschäftigt sich in der Forschungskommunikation unter

anderem mit der Gestaltung von Wissenschaftsnetzwerken.

14

Automatischer, elektronischer Datenaustausch für Maschinen, Apparate und Rohrleitungen auf Basis der NE 100 und der PAS 1040 unter Anwendung von

CAE-Systemen

Dr.-Ing. Peter Zgorzelski, Bayer Technology Services GmbH

Der automatisierte, elektronische Datenaustausch zwischen zwei Rechnern ist nur möglich, wenn eine Schnittstelle, auf die die Daten von beiden Rechnern beim Austausch zurückgreifen, standardisiert ist. Die Schnittstelle nach der NE 100/IEC 61987-10 kombiniert mit den Inhalten des PAS 1040 ist eine ideale Lösung für den Datenaustausch im Bereich der Maschinen, Apparate und Rohrleitungen. Diese Lösung hat den Charme, dass mit einer einheitlichen Schnittstelle zwei bei der Planung und Instandhaltung von verfahrenstechnischen Anlagen wichtige Gewerke gleichzeitig abgedeckt werden: die Verfahrenstechnik und die Prozessleittechnik (MSR und Elektrotechnik).

Dies ermöglicht die Realisierung von verschiedenen Synergien, z.B. den Datenaustausch zwischen den Gewerken oder die Realisierung nur einer Schnittstelle in einem CAE-System für beide Gewerke gleichzeitig, was wohl für die CAE-System-Hersteller besonders interessant ist.

Die Nutzerorganisation PROLIST® INTERNATIONAL e.V. ist für die Entwicklung und die Markteinführung des Austauschformates nach NE 100 zuständig. Die NAMUR selbst bietet lediglich eine Publikationsplattform durch die Veröffentlichung der NAMUR-Empfehlung NE 100 mit den Arbeitsergebnissen von PROLIST. Die erste Version der NE 100 wurde bereits 2003 veröffentlicht.

Die Arbeitsergebnissen von PROLIST sind u.a. Merkmalleisten für 110 Gerätetypen der Prozessleittechnik: Messgeräte, elektrische Motoren, Armaturen (Stellgeräte), Geräte der Signalanpassung und Niederspannungs-Schaltanlagen. Die Merkmalleisten der NE 100, die in Deutsch und Englisch verfügbar sind, werden von Anfang an in die internationale Normung bei IEC transferiert. Sie entsprechen den einschlägigen internationalen Normen für Merkmale und Merkmalleisten: der IEC 61360 und der ISO 13584.

Der bereits gültige Norm IEC 61987-10, in der das Datenmodell für die Merkmalleisten-Technik beschrieben wird, entspricht dem Inhalt der NE 100. Die Teile 11 bis 16 (teilweise gültig) der Normanreihe IEC 61987 betreffen die Merkmalleisten der Messgeräte und die Teile 21 und 22 (im Genehmigungsprozess) betreffen die Merkmalleisten die Armaturen und der Stellgeräte.

Zu den Merkmalleisten haben die in PROLIST mitwirkenden Firmen der Anlagenbetreiber, Gerätehersteller, CAE-Systemanbieter, Software-Anbieter und Universitäten eine auf Basis der NE 100/IEC 61987-10 funktionierende Schnittstelle erschaffen, die ermöglicht, maschinenlesbare, XML-formatierte Informationen zwischen den jeweiligen Anwen-dungsystemen, wie CAE- und ERP-Systeme, Konfiguratoren und Vertriebssysteme für die Zwecke des Engineerings, Einkaufs, der Errichtung und der Instandhaltung auszutauschen. Die so ausgetauschten Merkmalleisten können aus verschiedenen Quellen stammen, z.B. auch aus der PAS 1040.

15

Es gibt schon auf dem Markt CAE-Systeme, die mit der Schnittstelle ausgerüstet sind, sowie Applikationen, die an ein CAE- oder Vertriebssystem angedockt, den Datenaustausch nach der NE 100/IEC 61987-10 ermöglichen. Einige Gerätehesteller haben die Schnittstelle bereits in deren Vertriebssystemen integriert. Der Datenaustausch nach der NE 100-Schnittstelle wurde das erste Mal in 2005 getestet und wird seit 2006 operativ, zuerst in kleinen und heute schon in großen Projekten, der mitarbeitenden Firmen verwendet. Hierbei spielt der Datenaustausch zwischen dem Planer (CAE-system) und dem Geräte-Hersteller eine Schlüssel-Rolle.

Mit dem inhaltlichen und technologischen Standard wurde die Grundlage für die gemeinsame Sprache geschaffen, um komplexe Planungsinformationen zwischen IT-System von Planern und Herstellern aber auch zwischen den Planern verlässlich auszutauschen. Die gemeinsame Sprache nach NE 100 verbessert die Qualität der Analgendokumentation und damit die Prozessqualität, die Prozessgeschwindigkeit und die Prozesseffizienz. Damit werden wirtschaftliche Vorteile für die beteiligten Unternehmen erzielt.

Im Rahmen eines SAP-Projektes für die technische Anlagenbewirtschaftung bei der Bayer AG entstand 2001 die Arbeitsgruppe “KOSMEL” (Koordinierungsstelle Merkmalleisten). Durch den Aufbau einer Zusammenarbeit von BASF, Bayer, Wacker Chemie und zeitweise auch von Henkel wurde in 2002 eine gemeinsame Arbeitsplattform im Rahmen von eCl@ss gegründet, die zur Entstehung der eCl@ss-Fachgruppe für das Sachgebiet 36 „Maschinen, Apparate“ mit dem Namen „KOSMEL GLOBAL“ führte. Später wurden die Merkmalleisten des Sachgebiets 37 von eCl@ss „Rohrleitungstechnik“ hinzugenommen.

PROLIST und KOSMEL GLOBAL pflegten enge Beziehungen, was die Einführung der Blockstruktur in das Datenmodell der Merkmalleisten und die Nutzung der IEC 61987-1 zur Ordnung der Blöcke in Merkmalleisten für Maschinen, Apparate und Rohrleitungen führte. Die Arbeitsergebnisse von KOSMEL GLOBAL wurden 2004 in der PAS 1040 Reihe von DIN offiziell veröffentlicht. Darin gibt es 198 Merkmalleisten der Maschinen und Apparate und 180 für Rohrleitungselemente.

Die Merkmalleisten der PAS 1040 lassen sich mit den Werkzeugen, die mit der NE 100-Schnittstelle arbeiten, auf gleiche Art und Weise handhaben, wie die die in der NE 100 veröffentlicht sind.

In der Präsentation wird gezeigt, wie die gemeinsame Sprache zum Datenaustausch, also die Schnittstelle nach NE 100, für die Maschinen, Apparate und Rohrleitungen angewendet werden kann. Die Merkmalleisten der PAS 1040 können direkt in der vorhandenen, gemeinsamen Infrastruktur genutzt werden, was zu Synergien bei der Handhabung der Transaktionsdaten zwischen der Verfahrens- und der Prozessleittechnik führt.

Dazu gehört die gemeinsame Nutzung des Datenmodells, des XML-Schemas und der Werkzeuge wie CAE-Systeme und Applikationen. Dabei können die Merkmalleisten der PAS 1040 (in Deutsch) mit den Merkmalen aus der ISO 15926-4-Bibliothek (in Englisch) bei Bedarf entsprechend kombiniert werden.

16

Werkzeug für die formalisierte Prozessbeschreibung VDI/VDE-Richtlinie 3682 auf Basis von MS Visio®

Dipl.-Ing. (FH) Lars Christiansen, Dipl.-Wirt.-Ing. Tobias Jäger, Prof. Dr.-Ing. Alexander Fay

Helmut-Schmidt-Universität Hamburg Unterstützung für ein integriertes Engineering durch eine formalisierte Beschreibung des technischen des Prozesses

Automatisierungstechnische Anlagen in den Domänen wie Fertigungs-, Prozess- und

Gebäudetechnik können anhand der Aspekte Produkt, Prozess und Ressource der

digitalen Fabrik beschrieben werden. Diese Aspekte sind in der VDI/VDE-Richtlinie

3682 „Formalisierte Prozessbeschreibungen“ [1]

aufgegriffen und umgesetzt. Ziel dieser Richtlinie

ist eine durchgängige Unterstützung des

Engineeringprozesses und ein einheitliches

Prozessverständnis für die beteiligten Personen

und Fachdisziplinen. Die Integration der

Prozessbeschreibung in Planungsabläufe

verfahrenstechnischer Anlagen wird in [3]

beschrieben.

Die Prozessbeschreibung basiert auf einem Informationsmodell, welches für die

weiteren Planungsschritte in den einzelnen Engineeringphasen dient [5]. Diese

Planungsschritte werden von verschiedenen Fachdisziplinen durchgeführt, die auf

unterschiedliche CAE-Systeme und Datenmodelle zurückgreifen. Eine

Informationsverdichtung durch einen durchgängigen Datenaustausch, wie in der

Richtlinie [1] angedacht, kann nur auf Grundlage eines standardisierten Datenmodells,

wie z.B. CAEX [2] erfolgen. Die in [3] vorgestellte SW-Umgebung besitzt diesbezüglich

keine XML- bzw. CAEX-Schnittstelle. Dies führt zu einer grafischen Insellösung der

SW-Umgebung.

Abbildung 1: Grafische Beschreibungsmittel der Richtlinie

17

Abbildung 2: Ausschnitt des hinterlegten Informationsmodells der Richtline

In diesem Beitrag wird daher ein Ansatz vorgestellt, welcher die Möglichkeit des

Datenaustauschs auf Basis von XML beschreibt, sowie die modulare Umsetzung der

Richtlinie. Auf der Basis bereits durchgeführter Anwendungen der formalisierten

Prozessbeschreibung und der Problematik der Insellösung werden Anforderungen an

ein optimales Werkzeug zur Verwendung des Beschreibungsmittels abgeleitet. Zur

Lösung wird eine intuitive und bedienerfreundliche Umsetzung der VDI/VDE 3682

innerhalb der Software MS Visio® vorgestellt. Durch das Werkzeug wird die

ganzheitliche und durchgängige Beschreibung von Prozess- und Ressourcenwissen,

wie in [4] bereits vorgestellt, unterstützt. Dieser Ansatz ermöglicht einen effizienteren

Engineeringprozess mit einer zusätzlichen Absicherung der Planungsergebnisse [5].

[1] VDI/VDE-Richtlinie 3682: „Formalisierte Prozessbeschreibungen“. Beuth Verlag, Berlin, 2005

[2] DIN EN 62424: Darstellung von Aufgaben der Prozessleittechnik – Fließbilder und Datenaustausch zwischen EDV-Werkzeugen zur Fließbilderstellung und CAE-Systemen (IEC 62424:2008), Beuth Verlag, Berlin, 2010

[3] Ullrich, A.: Entwicklungsmethodik für die Planung verfahrenstechnischer Anlagen. Fortschrittsbericht VDI, Nr. 425, VDI Verlag, Düsseldorf, 2009

[4] Strube, M.; Fay, A.: Brückenschlag zwischen Prozess- und Anlagenbeschreibung – Abbildung der VDI 3682 auf CAEX und AutomationML. atp-edition Heft 9, 2010

[5] Christiansen, L.; Jäger, T.; Strube, M.: Integration of a formalized process description into MS Visio® with regard to an integrated engineering process. In 16th IEEE Conference on Emerging Technologies in Factory Automation (ETFA 2011 Toulouse) CEUR Workshop proceedings ISSN: 1613-0073.

18

Austausch von Objektdaten mittels der ISO 15926 ‐‐  Erste Erfahrungen aus der chemischen Industrie am Beispiel von Apparatedaten 

Teinert, A., Franke, A., Dr. Mannsperger, H., BASF SE, Ludwigshafen Temmen, H, Anhäuser, F., Kügerl, T., Evonik Industries AG, Marl / Hanau 

Strathmann, A., Dr. von Wedel, L., Dr. Kussi, J., Bayer Technology Services GmbH, Dormagen/Leverkusen 

Der Datenaustausch zwischen verschiedenen Gewerken und Partnern im Rahmen von Anlagenplanung, –bau  und  –betrieb  ist  auf  Grund  inkompatibler  Werkzeuge  und  Datenformate  immer  wieder  ein Hindernis für einen reibungslosen, effizienten Projektablauf.  Im Jahre 2003 wurden hierzu erste Teile der ISO 15926 als Standard für Integration und Austausch von Daten  im  Lebenszyklus  von  Anlagen  verabschiedet.  In  letzter  Zeit  findet  diese  internationale Norm auch  bei  den Herstellern  einschlägiger  CAE‐Systeme  zunehmend  Beachtung. Gleichzeitig  nimmt  das Interesse an  standardisierten  Lösungen bei Kontraktoren und Betreibern auf Grund von  steigendem Kostendruck und stärkerer Internationalisierung zu.  Auf der PAAT 2010 in Magdeburg wurde von Evonik einerseits sowie von Bayer Technology Services in Zusammenarbeit mit der Fa. Bentley andererseits über Erwartungen und erste Erfahrungen bzgl. der ISO  15926  und  eine  Einbettung  dieser  Norm  in  die  derzeitigen  CAE‐Landschaften  berichtet.  Im Anschluss  an  diese  Vorstellung  hat  eine  Arbeitsgruppe mit  Vertretern  von  BASF,  Evonik  und  Bayer Technology Services den Stand der  ISO 15926 am Beispiel der Modellierung von Apparaten evaluiert. Ziel dieser  Fallstudie  ist eine erste Bewertung der  technischen Grundlagen der  ISO 15926 einerseits sowie  eine  Evaluierung  des  Datenaustauschs  zwischen  aktuellen  CAE‐Werkzeugen  verschiedener Hersteller mit Hilfe dieser Norm andererseits.  Der Beitrag berichtet über den derzeitigen Stand der Arbeiten, Erfahrungen aus der Anwendung der ISO 15926 sowie Ergebnisse aus der Umsetzung einer Fallstudie in kommerziellen CAE‐Werkzeugen. 

19

PLS-Software im CAE erstellt und ins PLS heruntergeladen - Projektbericht für ComosPT und SIMATIC PCS7

T. Tauchnitz, Sanofi-Aventis Deutschland GmbH, Frankfurt am Main/D

Die Programmierung von Leitsystemen ist weitgehend noch „Handarbeit“, die stark vom jeweiligen Zielsystem abhängt. Häufig liegt die Softwareerstellung auf dem kritischen Pfad von Projekten, weil sie den vollständigen Abschluss der verfahrenstechnischen und messtechnischen Planung voraussetzt, das PLS aber bereits für die Wasserfahrten benötigt wird. Grundidee des Vortrages ist, die Software soweit möglich nicht mehr im PLS zu erstellen, sondern im CAE-System vorzugeben. Hierdurch entsteht die Software parallel mit dem Engineering der Anlage und zeitlich bereits vor Auswahl des einzusetzenden PLS. Durch geeignete Compiler kann dann die vorgegebene Software in das jeweilige PLS heruntergeladen werden. Das Konzept hierfür wurde bereits in [1] veröffentlicht. Im Referat wird über ein Pilotprojekt berichtet, in dem diese Schnittstelle zwischen dem CAE-System „ComosPT“ und dem PLS „SIMATIC PCS7“ von Siemens prototypisch realisiert wurde. [1] Tauchnitz, T.: CIPE oder: Die Zeit ist reif für eine Integration des Prozessentwurfs-, Engineering- und Betreuungs-Prozesses. atp – Automatisierungstechnische Praxis 47 (2005), Hefte 10 und 11.

20

Unterstützung des „Workflows“ im Umfeld der PLT-Anwendungen, Verbesserung der Schnittstelle zwischen Anlagen- und MSR - Planer

W. Witt In den bekannten Anlagen-Dokumentationssystemen, wie beispielsweise Comos, sind die PLT – Anforderungen üblicherweise über Fließbilder und Dateien zu definieren. Die Dokumentation der Anforderungen ist nicht für alle Beteiligten (Verfahrenstechniker, Sicherheitsexperten, Betriebsleiter) - leicht verständlich. Ebenso gibt bisher keine für alle Beteiligten leicht verständliche und übersichtliche Plattform zur Präsentation der realisierten Prozessleittechnik (PLT). Ein weiterer Ansatzpunkt zur Optimierung der Anlagendokumentation wird in der Verknüpfung der Ergebnisse der Sicherheitsanalyse mit der Betriebsebene gesehen. In diesem Beitrag sollen vor allem effiziente Lösungswege zur Verbesserung der Schnittstelle zwischen Anlagen- und MSR - Planer, die teilweise auch schon DV-technisch umgesetzt wurden, aufgezeigt werden. Die Einsparpotentiale (eigene Schätzung) in der PLT-Definition und Dokumentation werden wie folgt bewertet: . Anlagenplanung: 1 h -1 Tag pro Fließbild

. Sicherheitsanalyse: 1 h -1 Tag pro Fließbild

. Betrieb: 1 h -1 Tag pro Fließbild und Jahr Neben der zeitlichen Bewertung sind noch weitere Optimierungspotentiale zu berücksichtigen. Beispiele sind:

. Potential für einfacheres PLT-Konzept

. Betriebssicherheit wird erhöht

. Wartung wird unterstützt . Planungswissen wird dokumentiert Der Lösungsansatz geht von einer integrierten oder mit dem Dokumentationstool vernetzten Nutzerebene aus. Der „Workflow“ beinhaltet ein integriertes Konzept von der Definition der PLT- Anforderungen über die Festlegung Prozessablaufsteuerung bis zur Dokumentation der Verknüpfung der PLT mit dem Feld. Dabei kommen Matrixstrukturen, die als erweiterte Verriegelungsmatrizen angesehen werden können, zum Einsatz. Die Übertragung der Dokumentation der Sicherheitsanalyse auf das Leitsystem wird mittels PLT-Ident-Nr. gelöst.   

21

Bearbeitung und Austausch von SmartPlant P&ID Datenbanken mit unterschiedlichen Konfigurationen zwischen Owner-Operator und Engineering Kontraktoren:

Untersuchung eines Hybrid-Ansatzes

Autoren: Felix Anhäuser, Evonik Industries AG, Axel Wagner, Bayer Technology Services GmbH Gregor Pilatzki, Uhde GmbH Kurzfassung: Bei der Ausschreibung einer Anlagenplanung von Owner-Operators (O&O) an EPCs wird in der Ausschreibung (ITB) zunehmend spezifische Software gefordert. Eine herausragende Rolle bei den Tool-Forderungen spielt hier das Tool SmartPlant P&ID (SPPID) der Firma Intergraph. Häufig wird nicht nur auf ein spezielles Release von SPPID bei der ITB wertgelegt, sondern dem EPC eine spezifische Ausprägung des Tools – Kundenkonfiguration / Customizing - auferlegt. Während beim O&O die spätere Maintenance bei seiner Ausprägung des Customizing im Vordergrund steht, hat der EPC ein eigenes Customizing zur optimalen Nutzung im Engineering mit Schnittstellen zur jeweiligen Tool-Welt des EPC geschaffen. Auf beiden Seiten (O&O, EPC) besteht die Notwendigkeit eines Customizing mit Bedacht und die Erkenntnis, dass das ‚Out-of-the-Box‘-Tool des Herstellers so für keine Seite direkt einsetzbar ist. Seitens der Softwarehersteller sind aber kaum Möglichkeiten vorgesehen bei gleichem Tool und Release die Kundenkonfiguration auszutauschen und dabei die Inhalte zu erhalten. Das Maß der Unverträglichkeit beim Datenaustausch bei gleichem Tool aber in der Regel unterschiedlichem Customizing ist kontraproduktiv, dass es der 50%-Idee eines schnelleren Durchlaufs von der Idee zum Engineering, Errichtung und Inbetriebnahme zuwider läuft. Aus der ProcessNet Joint Action Group zu SPPID wurde daher zwischen den Firmen Bayer Technology Services, Evonik und Uhde eine Untersuchung für einen Hybrid-Ansatz gestartet. Der Hybrid-Ansatz ist die Idee zur Vereinigung der verschiedenen Konfigurationen, sodass die Schnittstellen beider Partner bedient werden können. Es galt dabei festzustellen, unter welchen Bedingungen der Hybrid-Ansatz für SPPID einen machbaren und wirtschaftlichen Ansatz darstellen kann und was dabei beachtet werden muss. Die Ergebnisse dieser Untersuchung werden hier dargestellt mit dem Ziel:

• Gestaltungsspielräume bei der Anpassung von Tools aufzuzeigen • Hinweise an O&O und EPC für eine bessere Kommunikation auf Tool-Ebene

zu geben im Sinne einer Beschleunigung des Gesamtprozesses • Hinweise zu geben an die Software Hersteller für einen Lösungsansatz eines

Datenaustausch über Firmengrenzen hinweg

22

Koordination von Scheduling-Lösungen für verschiedene Produktionsanlagen

Chaojun Xu, ABB AG Forschungszentrum und TU Dortmund, Ladenburg;

Guido Sand, ABB AG Forschungszentrum, Ladenburg;

Sebastian Engell, TU Dortmund, Dortmund

Moderne industrielle Produktionsprozesse bestehen aus vielen Teilprozessen und

unterliegen jeweils einer Vielzahl von technischen Beschränkungen. Ziel des

Scheduling ist die termingerechte Auslieferung der Endprodukte mit möglichst

geringem Ressourcenverbrauch sicherzustellen. Ein Beispiel hierfür ist das

Zusammenspiel von metallurgischen Prozessen und Walzstraßen, bei dem die

Lagerung von Vormaterial zwischen den beiden Prozessen möglichst gering gehalten

werden sollte, um die Kapitalbindung, den Platzbedarf und den Energieverbrauch zu

minimieren.

Beim aktuellen Stand der Technik können für Teilprozesse eines

Produktionsprozesses mit einer Kombination von mathematischer Modellierung,

Optimierung und Heuristiken zulässige und günstige Anlagenbelegungen bestimmt

werden. Eine gute Lösung für die Planung des gesamten Prozesses ist damit

allerdings nicht gewährleistet, da die Zusammenhänge zwischen den einzelnen

Prozessen nicht berücksichtigt werden. Andererseits sind die Gesamtprobleme derzeit

nicht integriert lösbar. Dies führt auf die Fragestellung, die Planung des gesamten

Produktionsprozesses unter Benutzung bereits bestehender Optimiererungslösungen

(Scheduler) effizient zu gestalten. Hierzu wird eine Koordinationsebene eingeführt, die

aufgrund eines vereinfachten Modells Vorgaben für die Planung der Anlagenbelegung

der einzelnen Einheiten macht (Xu et al. 2011).

Abbildung 1: Koordination von Scheduling Lösungen für verschiedene Anlagenteile

23

Das in Abbildung 1 dargestellte Problem besteht abstrakt darin, die Koordination

zwischen zwei batchweise betriebenen Produktionseinheiten zu verbessern. Ein

Beispiel ist die eingangs erwähnte Koordination eines Stahlwerks und einer

Warmwalzstraße bei der Stahlherstellung. Als Zwischenprodukt fallen heiße Brammen

an, die sich bei der Lagerung abkühlen und zur Weiterverarbeitung wieder aufgeheizt

werden müssen.

Abbildung 2: Schnittstelle Koordination Heuristik

Für diese Aufgabe haben wir eine Schnittstellen-Koordinations-Heuristik entwickelt.

Der Koordinator koordiniert die unterlagerten Optimierer der einzelnen Einheiten

mittels der Variierung des internen Fälligkeits- und des Freigabedatums der einzelnen

Aufträge. Dieser Prozess wird iteriert bis eine günstige Lösung gefunden ist. Die

entwickelte Heuristik wurde mit Produktionsdaten eines realen Stahl- und Walzwerks

validiert. Sie erreicht eine durchschnittliche Reduzierung der Liegezeit im

Brammenlager um 23% im Vergleich mit der nicht-koordinierten Planung.

Xu, C. et al., 2011. A new Coordination Heuristic for Plant-wide Planning and Scheduling. In 21st European Symposium on Computer-Aided Process Engineering. ESCAPE 21. Elsevier.

24

Total Supply Chain Transparency - Vollständige Integration von Material- und Datenfluss im MES

Hisham K. Mubarak, BASF SE, Ludwigshafen

Kurzfassung Die Abwicklung logistischer Prozesse erfordert neben den physikalischen Transport

von Materialien und Gütern einen vergleichbaren datenlogistischen Aufwand. Im

Rahmen der Abwicklung logistischer Prozesse erfolgt daher täglich die manuelle

Eingabe logistikbezogener Daten in verschiedene Datenverarbeitungssysteme.

Darüber hinaus findet oftmals in der Datenverarbeitung ein Systembruch statt oder es

bestehen Systemlücken in der Datenverarbeitung, welche dazu führen, dass

Datenflüsse auf fehleranfälligem und zeitaufwändigem Papierweg erfolgen müssen.

Hierbei ist festzustellen, dass die informationstechnische Verfolgung von logistischen

Vorgängen oftmals lediglich im ERP-System erfolgt. Die im ERP hinterlegten

Informationen zur Materialwirtschaft sind oftmals nicht mit dem tatsächlichen

Materialfluss im Einklang und es muss ein hoher Dokumentationsaufwand betrieben

werden um die Nachverfolgbarkeit von Materialflüssen sicherstellen zu können.

Im Rahmen dieses Beitrags wird eine ausgeklügelte Lösung zur zuverlässigen

Handhabung von Prozessen und Vorgängen der Materialwirtschaft und der diesen

Prozessen im Hintergrund begleitenden Datenflüsse vorgestellt. Zentrale Rolle spielt

hierbei ein Manufacturing Execution System, welches die Welten Produktion und der

ERP nahtlos integriert. Das Ergebnis ist sind effiziente und automatisierte Prozesse,

welche mit Hilfe einer Barcodebasierten Verfolgung von Materialien zur einer

signifikanten Reduktion von Fehlern in der Materialhandhabung führen. Aufgrund der

dadurch erzielbaren Transparenz hinsichtlich Inventar und Vorgängen wird eine

deutliche Reduktion der Umlaufmengen und eine Vereinfachung von Arbeitsabläufen

erzielt.

25

Production Scheduling in the Process Industries Using Timed Automata Models

Subanatarajan Subbiah, M. Sc. and Prof. Sebastian Engell

Process Dynamics and Operations Group, Department of Biochemical and Chemical Engineering Technische Universität Dortmund, Emil-Figge Straße 70, 44227 Dortmund, Germany

E-mail address: [email protected], [email protected] In the process industries where multiple products are produced in batch mode, the optimal assignment of the operations to the limited available resources and their sequencing can contribute considerably to economic success. Very often in multiproduct batch plants, where the resources are utilized by different recipes for different products, changeover procedures have to be performed to avoid contamination of the materials. The duration of the changeover procedure may depend on the sequence of the operations on the resource and the presence of changeover tasks leads to a challenging scheduling problem. Among the several methods proposed to model and to solve batch scheduling problems, optimization based on reachability analysis of timed automata (TA) models has gained attention recently [1]. The appeal of the approach is the modular, intuitive, and straightforward graphical modeling of complex scheduling problems, and an efficient solution technique. We have addressed batch scheduling problems with changeovers, which are difficult and are practically relevant, by introducing a new technique for modeling the recipes and the utilization of the units by timed automata models. We have also improved the speed of the optimization algorithm by embedding lower bound computations in the reachability analysis to enhance the efficiency of the search. We here discuss the modelling of scheduling problems with unit-dependent setup times and sequence-dependent changeover times as priced TA, an extension of TA with the notion of costs, in a modular fashion [2]. In the TA-based approach the processing units, storage units, and recipes are modelled individually as sets of priced TA. The sets of individual automata are synchronized by synchronisation labels and are composed by parallel composition to form a global automaton. The global automaton has an initial location where no operations have been started and at least one target location where all operations required to produce the demanded quantities of end-products have been finished. A cost optimal symbolic reachability analysis is performed on the global automaton to derive schedules with the objective of minimizing a suitable cost function. Several benchmarks from the literature and case studies from the food industry [3] were investigated to test the performance of our approach. The approach was embedded into the scheduling tool Timed Automata Optimizer (TAOpt). The schedule computed by TAOpt for an industrial scale problem (see Fig. 1) shows the ability of our algorithm to handle realistic problems with production demands of up to 100 orders. The solution technique is flexible and problem-specific heuristics can be implemented easily in the reachability algorithm. The strength of our method is the ability to compute a first feasible solution very quickly, to provide a very good, if not optimal, solution within limited computation times, and to handle problems of industrial size.

26

Figure 1: Weekly production schedule computed by TAOpt for 91 orders for the food manufacturing case study derived from a real-world, medium-sized, ice cream manufacturing plant with a makespan of 7153 minutes. References [1] Panek S., Engell S. and Stursberg O., Efficient synthesis of production schedules by optimization of timed automata, Control Engineering Practice, 14, 1183–1187, 2006. [2] Subbiah S., Schoppmeyer C. and Engell S., An intuitive and efficient approach to process scheduling with sequence-dependent changeovers using timed automata models, Industrial and Engineering Chemistry Research (Special Issue to honour Prof. Luis Puigjaner), 50, 5131-5152, 2011. [3] Bongers Peter M. M. and Baker B. H., Application of multistage scheduling, Proc. 16th ESCAPE and 9th International Symposium on PSE, 1917–1922, 2006.

27

Technologiegerechte Hochdruckbehälter in Faserverbundbauweise Dipl.-Ing. Mario D. Naumann, TU Chemnitz - SLK, Chemnitz/Deutschland;

Dr.-Ing. Wolfgang Nende, TU Chemnitz - SLK, Chemnitz/Deutschland;

Prof. Dr.-Ing. habil. Lothar Kroll, TU Chemnitz - SLK, Chemnitz/Deutschland

Gegenwertig werden Hochdruckbehälter aus nahtlosen oder einem längs verschweißten Stahl- oder Aluminiummantelblech gefertigt. Auf beiden Seiten erfolgt in der Regel das Anschweißen von umformend hergestellten Domen mit entsprechenden Anschlussflanschen. Diese klassischen Druckbehältertypen haben oftmals ein hohes spezifisches Gewicht, teilweise geringe Dauerfestigkeiten sowie hohe Fertigungskosten zur Folge. Ein wesentliches Ziel bei der Auswahl eines geeigneten Behälterkonzeptes besteht darin, das Optimum zwischen Druckbereich, Nutzvolumen, Behältergewicht und Fertigungsaufwand für den jeweiligen Anwendungsfall zu erreichen. Zur Entwicklung von Druckbehältern in Leichtbauweise wird Stahl als konventioneller Behälterwerkstoff mit Hilfe von Leichtbauwerkstoffen teilweise oder vollständig substituiert. Dazu werden am SLK dem Wickelverfahren angepasste Behältergeometrien verwenden, die mit minimalen Material- und Maschinenaufwand maximale Festigkeiten für Hochdruckanwendungen aufweisen. Dem Problem der Diffusionsdichtheit wird mit hochlegierten Stählen begegnet, die sehr geringe Permeabilitäten besitzen. Hierfür sind Verfahren entwickelt worden, um Druckbehälter, die nahezu komplett aus Kunststoffen oder endlosfaserverstärkten Kunststoffen (FKV) bestehen, belastungsgerecht hinsichtlich mechanischer und medialer Beanspruchung auszuführen. An und von rechnerisch und praktisch untersuchten Prototypenhochdruckbehältern für den Einsatz von komprimiertem Wasserstoff mit Berstdrücken oberhalb von 1100 bar können bereits Gewichtsvorteile gegenüber reinen Stahlbehältern von ca. 65 % nachgewiesen werden. Dazu kommen beispielsweise mit hochfesten Kohlenstofffasern vollarmierte Hochdruckbehälter mit einem hochlegierten austenitischen Stahlliner zur Anwendung. Weiterhin sind Druckbehälter in Form von speziellen Isotensoiden (Dom- bzw. Kugelformen) in Kombinationen mit nahtlosen oder geschweißten Rohren sowie Vollkunststoffbehältern mit Kunststofflinern zur Masse- und Fertigungskostenreduzierung entwickelt worden. Die an der TU Chemnitz entwickelten Ultraleichtbauhochdruckbehälter lassen sich zudem auf der Basis von linerlosen Composite-Druckbehältertechnologien herstellen. Dieses Verfahren in Verbindung mit isotensoiden Behälterformen erlaubt eine optimale Gestaltung sowie Auslegung von Druckbehältern und erhöht zusätzlich den Leichtbaugrad derartiger Systeme.

28

Modellentwicklung zur Vorhersage diffuser Emissionen aus gasförmig beaufschlagten Flanschverbindungen

Lukas Pansegrau, Gerhard Schembecker und Christian Bramsiepe,

TU Dortmund, Dortmund/Deutschland

Die Reduzierung von Emissionen stellt ein wesentliches Ziel des Umweltschutzes und

einen wichtigen Beitrag zur Erhöhung der Sicherheit in chemischen und

petrochemischen Anlagen dar. Nachdem in der Vergangenheit meist die Reduktion der

direkten Emissionen im Vordergrund stand, sind heute auch die diffusen Emissionen in

den Fokus der Öffentlichkeit geraten. Aufgrund ihrer Anzahl in chemischen Anlagen

stellen die Emissionen aus Flanschverbindungen den größten Teil in dieser Gruppe

dar. Um diese hinsichtlich ihrer Abdichteigenschaften zu verbessern, ist die Kenntnis

der Stofftransportmechanismen beim Durchgang durch die Dichtung von besonderer

Bedeutung.

In diesem Vortrag wird ein Modell hergeleitet, was die Emissionen von Gasen aus

Flanschverbindungen vorhersagen kann. Es beruht auf der Vorstellung einer

Gleitströmung im Bereich der Knudsen-Zahl < 0,5 in Kombination mit dem von

Bramsiepe [1] hergeleiteten Berechnungsansatz der „konstanten Porosität“. Anhand

von experimentellen Ergebnissen wird gezeigt, dass mit diesem Modell die Emission

einer Innendruck beaufschlagten Flanschverbindung unter Variation der

Flächenpressung, des Rohrleitungsdrucks und des emittierenden Mediums möglich ist.

Darüber hinaus wird ein Vorschlag gemacht, wie basierend auf Emissionsmessungen

an Flüssigkeiten oder Gasen, die Leckage des jeweils anderen Aggregatzustands

vorhergesagt werden kann.

Quellen: [1] Bramsiepe, C.; Pansegrau, L.; Schembecker, G. A model to predict fugitive

VOC emissions from liquid charged flange joints with graphite gaskets, Chem. Eng. J. 149 (1-3) (2010) 11-16

29

"Flanschberechnungen nach EN 1591 – Vergleich zu AD anhand von Berechnungsbeispielen"

Dipl.Ing. Beate Schettki-Schäferdieck, Beratender Ingenieur, Mülheim an der Ruhr

Nach Einführung der Berechnungsvorschrift DIN EN 1591-Teil 1 im Jahre 2001 hat es relativ lange gedauert, bis diese „neue“ Berechnungsvorschrift in der Industrie die nötige Akzeptanz und Anerkennung erhalten hat. Waren es speziell die aufwendigen Berechnungsformeln zur Bestimmung des Verformungsverhaltens einer Flanschverbindung und die Dichtungs-Kennwerte aus dem Teil 2 der DIN EN 1591, die auf Ablehnung stießen. Mittlerweile ist man durch die Veröffentlichung der „TA Luft 2002“ und des „Bundes-Immi-sionschutzgesetzes (BImSchG)“ erheblich mehr sensibilisiert, dass man nicht nur die festigkeitsmäßigen Berechnungen für eine Flanschverbindung durchzuführen hat, sondern auch die mögliche Leckage und Ausblassicherheit u.a. zu betrachten hat. Die in Kürze zur Veröffentlich anstehende VDI 2290 wird dies noch weiter förden. Insofern wird in der Apparate- und Anlagentechnik zunehmend ein Vergleich zwischen dem bisher meist noch immer verwendeten nationalen deutschen Regelwerk AD2000-Merkblätter und der EN 1591-1 gemacht oder sogar gefordert. Welche generellen Unterschiede treten auf? Welches Regelwerk deckt welche Anforderungen aus dem Anlagenbau ab und welches nicht? Womit kann ich zukünftig den Anforderungen nach Dichtheit bzw. Leckageklassen u.a. Rechnung tragen? Dieser Vortrag soll diese Fragen beantworten und die generellen Unterschiede bzw. Philosophien in der Berechnung von Flanschverbindungen zwischen AD2000 und EN 1591-1 aufzeigen.

DIN EN 1092

• Ratings

• Dichtflächentypen

• Materialien

DIN EN 1591 Teil 1

• Berechnung

• „Auslastungsgrad“

• Verformung des Flansches

• Dichtheit/Leckage-Raten DIN EN 13555

• Dichtungskennwerte

• Prüfungen

• Leckageklassen

DIN EN 1514

• Abmessungen der Dichtungen

• Typen von Dichtungen

DIN EN 24015 DIN EN ISO 4014/4016/4017/4018

• Abmessungen von Schrauben

DIN EN 1591 Teil 2

• Kennwerte der Dichtungen

30

Laseroptische Erfassung der Geschwindigkeitsverteilung in einer Rohrleitung und der Einfluss der Fluid-Struktur-Wechselwirkung bei Druckstößen

Autoren:

Stefan Riedelmeier, PD Dr. Ing. Stefan Becker, Prof. Dr. Ing. E. Schlücker

Lehrstuhl für Prozessmaschinen und Anlagentechnik, FAU Erlangen

In einer Versuchsanlage mit 75 m Rohrlänge und 100 Durchmesser wurde die Geschwindigkeitsverteilung in der Rohrleitung mit einem Zweikomponenten-Zweifarben Laser-Doppler-Anemometer gemessen. Die dafür nötige optische Zugänglichkeit wurde über Glasfenster realisiert. Die Ergebnisse aus stationären Messungen hinter einem Rohrbogen wurden mit denen in einem geraden Rohrstück verglichen. Darüber hinaus erfolgten zeitabhängige Geschwindigkeitsmessungen an definierten Punkten in der Rohrleitung bei einem Druckstoß. Die Auswertung erfolgte unter der Berücksichtigung der Undichtigkeit der Schnellschlussklappe. Darüber hinaus wurde das Schwingungsverhalten von verschiedenen Bogenkonfigurationen bei der Anregung mit einem Druckstoß untersucht und der Einfluss der Fluid-Struktur-Wechselwirkung identifiziert. Messgrößen hierfür waren die maximale Auslenkung des Bogens sowie die Druckverteilung. Sowohl die Struktur- als auch die Fluidsignale wurden nach ihrem Frequenzinhalt untersucht und den Ergebnissen aus den Bogenkonfigurationen gegenübergestellt. Der Vortrag beleuchtet alle diese Themen, zeigt wie die Strömung im Rohr unter diesen Bedingungen aussieht und zugleich, dass die Durchströmung von Rohrbögen noch deutliches energetisches Verbesserungspotential beinhaltet.

31

Kavitationsphänomene in oszillierenden Verdrängerpumpen

Prof. Dr. Ing E. Schlücker, Universität Erlangen-Nürnberg

Viele Erfahrungen im Betrieb mit oszillierenden Verdrängerpumpen (OVP) zeigen, dass dieser Pumpentyp relativ unempfindlich gegen Kavitation ist. Andererseits verbietet die API 674 jegliche Kavitation in solchen Maschinen. Diese Diskrepanz war das Motiv für eine umfassende Untersuchung und Bewertung der Kavitationsphänomene und deren Wirkung. Da Kavitationsbildungs- und Blasenzerfallsprozesse sehr schnelle Vorgänge sind, wurde eine Pumpe mit bis zu 17 Sichtfenstern ausgestattet und die Vorgänge darin mit High- Speed Kameras untersucht. Parallel dazu wurden die zugehörigen Druckverläufe sowohl am Saugflansch über dem Saugventil als auch im Arbeitsraum aufgenommen. Die Filmaufnahmen und Druckverläufe zeigen dass die Kavitationsbildungsprozesse im Saugventil und Arbeitsraum im Wesentlichen aus strömungsbedingten Druckverlusten resultieren und die Kavitationsblasen dieser Strömung folgen. Wiederholte Wandkontakte an immer der gleichen Stelle, die zu den bekannten Kavitationsschäden führen, treten also in dieser Maschine nicht oder kaum auf. Darüber hinaus belegen Messungen der Blasenrückbildungsgeschwindigkeit, dass in diesen Maschinen eine gesteuerte Rückbildung stattfindet. Die Kavitationsblasen befinden sich immer zwischen dem Saugventil und dem sich nach hinten bewegenden Kolben. Wird das Blasenvolumen zurückgebildet, kann diese nur geschehen wenn durch das Saugventil genügend Flüssigkeit mit der nötigen Geschwindigkeit nachströmt. Da Rückbildungsprozesse in Bruchteilen einer Millisekunde ablaufen, kann die Strömungsgeschwindigkeit durch das Saugventil nicht in der nötigen Geschwindigkeit folgen und die Blasen fallen langsamer zusammen. Diese Ergebnisse und die Ergebnisse aus der High Speed Kamera zeigen, dass Kavitation in OVP weitgehend unschädlich ist und daher zumindest in Teilbereichen zugelassen werden kann. Die Frage, warum aber trotzdem Schäden in OVP auftreten und diese die Kavitation als Ursache nahelegt, kann nun damit beantwortet werden, dass die Ventile meist nicht optimal konstruiert sind und daher in etwas anspruchsvollen Betriebsweisen – eindeutig beim Schließvorgang – beschädigt werden.

32

Zukunft des Anlagenbaus in der EU – aktuelle Entwicklungen in der Normung

Dr. Frank Wohnsland, VDMA In kaum einer anderen Branche spielen technische Regelungen und Normen eine derart wichtige Rolle wie im Anlagen- und Apparatebau der Prozesstechnik. Normen erfüllen dabei gleich mehrere essentielle Funktionen: Sie fungieren zum einen als technische Umsetzungswerkzeuge, um gesetzlichen Sicherheitsanforderungen nachzukommen. Zum anderen spiegeln sie den aktuellen Stand der Technik wider und ermöglichen damit dem Anwender, Produkte in anerkannter Weise auf hohem technischem Niveau auf den Markt zu bringen. Für die Auslegung und den Bau von Apparaten, Behältern und Rohrleitungen ist folglich die Wahl des zugrunde liegenden Normenwerks von zentraler Bedeutung. Aufgrund des beträchtlichen Gefährdungspotentials, welches mit dem Gefahrenfeld "Überdruck" einhergeht, wurden in der Vergangenheit in beinahe allen größeren Industriestaaten – insbesondere in Europa – für den Behälter- und Rohrleitungsbau jeweils eigene Normenwerke entwickelt. In Deutschland bildet z. B. seit vielen Jahren das AD 2000-Regelwerk in der Mehrzahl der Fälle die normentechnische Basis bei der Bestellung von chemischen Apparaten. Derzeit zeichnet sich jedoch ein Paradigmenwechsel ab: Die unter der europäischen Druckgeräterichtlinie harmonisierten Normenreihen EN 13445 "Unbefeuerte Druckbehälter" und EN 13480 "Industrielle Rohrleitungen" gewinnen zunehmend an Bedeutung und schicken sich an, in Europa die noch bestehenden nationalen Regelwerke nach und nach abzulösen. Für die betroffenen Firmen – Hersteller wie auch Betreiber – bedeutet dies zwar einerseits eine Umstellung: die Beschäftigung mit einem bisher noch eher wenig bekannten Normenwerk, was aber – wie erste Erfahrungen zeigen – technisch ohne große Probleme zu bewältigen ist. Interessanter ist aber vielmehr die Chance, die damit verbunden ist: nämlich ein europaweit – und über dessen Grenzen hinaus – anerkanntes Regelwerk, das die Möglichkeit bietet, neue Märkte zu erschließen, und von den meisten Fachleuten als modernstes und innovativstes Normenwerk überhaupt im Behälter- und Rohrleitungsbau angesehen wird. In diesem Vortrag werden nach einer Einführung in die gesetzlichen Rahmenbedingungen im europäischen Anlagenbau die neusten Entwicklungen auf dem Gebiet der Apparate- und Rohrleitungsnormung erläutert. Nach einem kurzen Exkurs zur grundsätzlichen Rolle der Normen in diesem Umfeld werden die wichtigsten Charakteristika der beiden Normenreihen EN 13445 und EN 13480 vorgestellt. Darüber hinaus wird ihre Einbettung in das europäische Gesamtnormenwerk – Stichwort: Werkstoffe – näher betrachtet. Schließlich wird der für Hersteller und Betreiber besonders wichtige Aspekt der Akzeptanz dieser beiden Standards (EU/international) ausführlich beleuchtet.

33

Vom Planungsmodell zum As-built-Modell (Laserscanning)

B. Bodeit, Peters Engineering AG, Ludwigshafen Im Anlagenbau hat sich die Planung mit 3D-Softwareprogrammen seit langem fest

etabliert. In den letzten Jahren werden die 3D-Planungsmodelle nach der

Anlagenfertigstellung auch verstärkt während der Betriebszeit der Prozessanlagen

verwendet. Hierfür ist es erforderlich, dass die in der Anlagenmontage entstandenen

Änderungen in den 3D-Planmodellen nachgeführt werden. Bisher erfolgte dies auf

Basis von As-built-Dokumentation der Montagefirmen in den entsprechenden

Montageunterlagen wie z. B. Rohrleitungsisometrien, Aufstellungsplänen oder

Stahlbauplänen. Mit der nun ebenfalls etablierten Laserscantechnologie ergeben sich neue

Möglichkeiten, diesen As-built-Abgleich in digitaler Form vorzunehmen. Hierzu werden

Aufnahmen der fertig montierten Anlagebereiche mittels Laserscanning erstellt. Die

Messwerte aus dem Scan werden in Form von Punktwolken übermittelt, anschließend

bearbeitet und in die 3D-CAD-Software überspielt. Das eingelesene 3D-Messmodell wird hierbei mit dem Planmodell mittels einer hierfür

speziell entwickelten Software abgeglichen. Die außerhalb der einstellbaren Toleranz

liegenden Abweichung von gebauter zu geplanter Position eines Anlagenteils wird in

der 3D-Planungssoftware angezeigt. Der CAD-Konstrukteur kann anschließend mit

seinem 3D-Softwareprogramm die Planmodelländerung lagegenau nachführen. Das

As-built-Anlagenmodell kann so sehr effizient und maßgenau erstellt werden.

34

Process Improvement Cost Cascade (PICC) – Eine systematische Methodik zur Steigerung der Ressourceneffizienz vielstufiger Produktionsprozesse

C. Buchaly, C. Frerick, G. Ronge Bayer Technology Services GmbH, Leverkusen

Eine wirtschaftliche Optimierung vielstufiger Produktionsprozesse kann maßgeblich durch

Steigerung der prozessintegrierten Ressourceneffizienz erreicht werden. Dazu wurde bei

Bayer Technology Services in enger Zusammenarbeit mit Bayer CropScience in der jüngeren

Vergangenheit eine systematische Methodik zur Identifikation und Hebung von

verfahrenstechnischen Optimierungspotentialen bei komplexen Produktionsprozessen

entwickelt und erfolgreich angewendet.

Die vorgestellte Methodik umfasst ein systematisches Screening sämtlicher Schritte eines

vielstufigen Produktionsprozesses. Vielfach sind die erforderlichen Informationen wie z.B

Analytik und Mengenbilanz nicht in der geforderten Genauigkeit verfügbar. In diesen Fällen

wird im ersten Schritt die vorhandene Prozessanalytik erweitert, z.B. um nicht-isolierte

Zwischenprodukte zu quantifizieren. Im Folgenden können genauere Mengenbilanzen des

Produktionsprozesses erstellt und darauf aufbauend die sogenannte Process Improvement

Cost Cascade (PICC) erarbeitet werden.

Im Rahmen der PICC erfolgt eine Unterscheidung in

• stöchiometrische Bedarfe der einzelnen Syntheseschritte welche nicht zugänglich für

verfahrenstechnische Prozessverbesserungen sind und

• Verlustgrößen welche zugänglich für Prozessverbesserungen sind, z.B.

Selektivitätssteigerungen in den Reaktionsstufen oder Steigerungen der

Rückgewinnung von Lösemitteln und Nebenprodukten.

Mit Hilfe der PICC ist es somit für einen vielstufigen Produktionsprozess direkt möglich,

verfahrenstechnisch zugängliche Optimierungspotentiale zu visualisieren und den

Syntheseschritt mit dem höchsten Optimierungspotential zu identifizieren. Die Anwendung

dieser systematischen Methodik hat somit zwei wichtige Vorteile:

• die PICC ermöglicht eine Identifizierung von sogenannten „key cost drivers“, welche

Prozessverbesserung zugänglich sind und

• die PICC erlaubt es denjenigen Prozessschritt im vielstufigen Verfahren aufzuzeigen

für den eine detaillierte Analyse und zielgerichtete Folgeprojekte am sinnvollsten sind.

35

Simulationsgestützte Umsetzung modularer Anlagenkonzepte mit Entscheidungen unter Unsicherheit Teil 1 (Industrie)

Dipl.-Ing. Marco Kohnke, Dr.-Ing. Dirk Schmalz, Merck KGaA

Die Produktion in Unternehmen der Spezialchemie ist überwiegend durch ein Multi-Purpose-

Umfeld gekennzeichnet. In solchen Unternehmen stellen sich Entwicklungsabteilungen

regelmäßig der Herausforderung neue Produkte aus der Forschung optimal hinsichtlich der

Nutzung vorhandenen Equipments, Ressourceneffizienz und Raum-Zeit-Ausbeute in den

Produktionsmaßstab zu überführen. In den meisten Fällen können neue Produkte in

bestehenden Anlagen produziert werden. Aber auch Neuinvestitionen in zusätzliche Anlagen

sind gerade bei neuen technologischen Fragestellungen nicht selten.

Im Beitrag wird anhand einer anonymisierten Fallstudie ein entwickeltes Konzept erläutert,

welches die Entscheidungen für solche Neuinvestitionen unterstützt.

Die Untersuchungen beginnen bereits in frühen Stadien der Verfahrensentwicklung.

Verfahrensoptimierungen können so in das Modell einfließen, welches damit immer aktuelle

Informationen über die Maximalkapazität vorhandener Anlagen und möglicher Bottlenecks

liefert.

Mit Hilfe einer Logistiksimulation wird hierbei zunächst die Kapazität vorhandener Anlagen

für das neue Produkt bzw. die Produktfamilie überprüft. Hierbei werden sowohl alle bekannten

Verfahrensalternativen für das neue Produkt, als auch verschiedene Schichtmodelle für die

Produktion berücksichtigt. Die ermittelten Kapazitäten werden dann mit den Marktprognosen

des Marketings verglichen. Überschreiten die Prognosen der relevanten Produktfamilie zu

einem Zeitpunkt die ermittelte Maximalkapazität, muss über die notwendige Investitionen in

Art und Umfang entschieden werden. Dabei werden als Investitionsalternativen sowohl

konventionelle als auch modulare Anlagenkonzepte betrachtet.

Die Instrumente werden im Beitrag anhand eines Beispiels erläutert. Am Ende wird für das

Beispiel eine Investitionsempfehlung auf Basis der Simulationsergebnisse gegeben.

36

Simulationsgestützte Umsetzung modularer Anlagenkonzepte mit Entscheidungen unter Unsicherheit Teil 2 (Hochschule)

S. Lier, M. Grünewald, Ruhr-Universität Bochum, Bochum/D;

D. Schmalz, M. Kohnke, Merck KGaA, Darmstadt/D

Die Produktion in Unternehmen der Spezialchemie ist überwiegend durch ein Multi-Purpose-

Umfeld gekennzeichnet. In solchen Unternehmen stellen sich Entwicklungsabteilungen

regelmäßig der Herausforderung neue Produkte aus der Forschung optimal hinsichtlich der

Nutzung vorhandenen Equipments, Ressourceneffizienz und Raum-Zeit-Ausbeute in den

Produktionsmaßstab zu überführen. In den meisten Fällen können neue Produkte in

bestehenden Anlagen produziert werden. Aber auch Neuinvestitionen in zusätzliche Anlagen

sind gerade bei neuen technologischen Fragestellungen nicht selten.

Dabei werden als Investitionsalternativen sowohl konventionelle als auch modulare

Anlagenkonzepte betrachtet. Die Entscheidung, auf welche Kapazität die konventionelle

Anlage ausgelegt werden soll bzw. wie eine modulare Alternative aussehen könnte (Anzahl und

Kapazität der Module), hängt von verschiedenen Einflussgrößen ab, zum Beispiel die

Marktprognosen (Preis und Absatzmenge), die Rohstoffkosten, die Investitionskosten, sowie

viele andere mehr. Zunächst werden die Alternativen mit Hilfe einer klassischen

Kapitalwertanalyse verglichen und durch Sensitivitätsanalysen wird der Einfluss dieser

Einflussgrößen beschrieben, welche bei Konstanz aller anderen Einflussgrößen eine

Einflussgröße systematisch untersucht. Die meisten dieser Einflussgrößen sind jedoch mit mehr

oder minder hohen Unsicherheiten behaftet, welche simultan und mit unterschiedlichen

Wahrscheinlichkeiten eintreten. Um diese Unsicherheiten simultan bei der

Entscheidungsfindung zu berücksichtigen, werden die Investitionsalternativen mit Hilfe einer

Monte-Carlo-Simulation verglichen. Diese soll die herkömmlichen Worst-/ Best-Case-

Vergleiche ersetzen. Interessant an diesem Ansatz sind vor allem die Berücksichtigung aller

Fälle mit ihren entsprechenden Wahrscheinlichkeiten und instationären Unsicherheiten.

Die Instrumente werden im Beitrag anhand eines Beispiels erläutert. Am Ende wird für das

Beispiel eine Investitionsempfehlung auf Basis der Simulationsergebnisse gegeben.

37

Prozessanalyse Batch- und Life Science – Eine neue Methode für die Prozessoptimierung

Dr. Andreas Schluck, Dr. Constantin Frerick, Dr. Wulf Dietrich, Dr. Georg Ronge

Bayer Technology Services GmbH BTS-PT-PD- Process Analysis

D-51386 Leverkusen Tel.: + 49 (0)214/30-21346 Fax: + 49 (0)214/30-62677

E-Mail: [email protected]

Bayer Technology Services hat eine Methode zur Analyse von Batch- und Life Science Prozessen sowie zur Identifikation und Bewertung von Verbesserungsmaßnahmen entsprechender Anlagen entwickelt. Die Methode basiert auf einer ereignisdiskreten Materialflusssimulation mit Inosim- Batch. Dazu werden Betriebsdaten einer Produktionsanlage oder eines Anlagenverbundes analysiert und in ein dynamisches Modell übertragen. Berücksichtigt werden neben dem Materialfluss zwischen den Teilanlagen auch das Verhalten der einzelnen Unit Operations sowie Tank- bzw. Pufferkapazitäten, die Verfügbarkeit von Betriebspersonal und Ressourcen wie auch besondere Produktionsanforderungen (z.B. GMP-Bedingungen). Darüber hinaus werden geplante und nichtgeplante, zufällige Stillstände sowie Schwankungen der Produktionsparameter und des Marktbedarfs in die Simulation einbezogen. Auf Basis der Simulation und einer statistischen Analyse ergibt sich die Kapazität der gesamten Anlage. Zudem können über ein neu entwickeltes Verfahren systematisch Bottlenecks identifiziert und Gegenmaßnahmen erarbeitet werden. Während der Planungsphase von Investitionsprojekten können durch derartige modellgestützte Untersuchungen bereits im Vorfeld Engpässe vermieden bzw. Produktions-, Catch-Up- und Pufferkapazitäten optimal aufeinander abgestimmt werden, wodurch ein zielgerichtetes „Design to Capacity“ ermöglicht wird. Im Rahmen des BMBF-Projekts „INOSIM-BIO“ wird die zugrundeliegende Software mit den Partnern Inosim-GmbH, Planton-GmbH und der Universität Dortmund weiterentwickelt, um u.a. das verfahrenstechnische Verhalten der einzelnen Stufen in die Simulation implementieren und über die Analyse auswerten zu können. Im Projektverlauf wurden bereits umfangreiche Weiterentwicklungen an der Software durchgeführt und an operativen Projekten zur Verfahrensoptimierung getestet, deren Status im Rahmen des Vortrags vorgestellt werden. Die Anwendung der Methode wird anhand ausgewählter Beispiele demonstriert.

38

Dynamische Maschinensimulation bei Linde Engineering Dr. Martin Häfele, Linde Engineering, Pullach,

Martin Kamann, Linde Engineering, Pullach

Der Geschäftsbereich Linde Engineering der Linde AG plant und baut

verfahrenstechnische Großanlagen zur Luftzerlegung, Erdgasverflüssigung,

Gastrennung, Olefin- und Synthesegaserzeugung. In allen diesen Anlagen sind

Verdichter und Turbinen für die Prozessführung ein unerlässlicher Bestandteil,

weshalb die Betriebssicherheit dieser Maschinen nicht nur für ausgedehnte Intervalle

von mehreren tausend Betriebsstunden sicherzustellen ist, sondern auch für

transienten Betrieb assoziiert mit Lastregelung, An- und Abfahrvorgängen.

Linde Engineering verwendet dabei dynamische Simulationen sowohl zur Auslegung

als auch zur Überprüfung der Maschinenschutzsysteme sowie zur Analyse der

Stabilität und Regelbarkeit von Maschinensträngen. Solche Untersuchungen sind in

zunehmendem Maß wegen der Kapazitätsoptimierung der Anlagen notwendig, zudem

wird die Erstellung von dynamischen Maschinensimulationen teilweise explizit von

Kunden zum Nachweis der adäquaten Dimensionierung angefordert.

Die Integration dieser Aktivität in den Engineering-Prozess einer Auftragsabwicklung

stellt dabei eine besondere Herausforderung dar, da einerseits grundsätzliche

Erkenntnisse der Dynamik wünschenswerterweise schon bei der Konzeption der

Anlage vorliegen sollen, andererseits eine Modellparametrierung auf Basis konkreter

Bestellunterlagen für Maschinen und Apparate erfolgen muss. Prinzipiell kann,

abhängig von Kundenwünschen, die Durchführung einer solchen Studie auch an den

Maschinenlieferanten oder einen dritten Anbieter fremdvergeben werden.

Erfahrungsgemäß folgt bei der Fremdvergabe die Simulationsstudie aber dem

Engineering-Fortschritt der Gesamtanlage zeitverzögert nach, was schon allein wegen

der notwendigen Detail-Spezifikation zur Vergabeverhandlung der Studie verursacht

ist. Dadurch müssen Resultate der Studie u.U. als aufwändige Nachbesserungen ins

Anlagen-Engineering zurückfließen. Zudem findet mit der Detailspezifikation ein

erheblicher Wissenstransfer statt, da eine qualitativ hochwertige Simulation nur mit

detailliertem Prozessverständnis zu erreichen ist.

39

Dies kann mit einer internen Durchführung umgangen werden, hier können

dynamische Prozessmodelle bereits zusammen mit der Designrechnung erstellt

werden. Erste Rechnungen und Erkenntnisse aus früheren Simulationen wirken

bereits wieder ins Anlagendesign, und neben den oben genannten Aspekten –

Überprüfung der Maschinenschutzsysteme und Untersuchung von Stabilität und

Regelgüte – kann eine dynamische Simulation auch dazu dienen, das

Prozessverständnis zu vertiefen, um schon während der Konzeption ein robustes

Anlagen-Design zu identifizieren.

Ein weiterer Nutzen eines dynamischen Prozessmodells ist eine potentielle Integration

von Emulatoren z.B. von Anti-Surge-Systemen in die Prozessrechnung über geeignete

standardisierte Schnittstellen. Damit lassen sich Reglerparameter bereits a-priori

bestimmen, was die Inbetriebnahme vereinfachen kann.

Bei intern durchgeführten dynamischen Maschinensimulationen findet bei Linde

Engineering der gleichungsorientierte Simulator OPTISIM® Verwendung. An diesen ist

das ebenfalls Linde-eigene Stoffdatenberechnungssystem GMPS (General Multiphase

Property System) angebunden. OPTISIM® ist ein von Linde Engineering entwickelter

und gewarteter gleichungsorientierter Simulator für verfahrenstechnischen Prozesse

und Anlagen. Das Anlagenmodell wird aus Apparatemodellen und den sie

verbindenden Stoff-, Energie- und Informationsströmen aufgebaut. Die Maschinen und

Apparate liegen in einer verallgemeinerten Form in der OPTISIM® Modellbibliothek vor

und werden durch die Angabe von Parametern zu spezifischen Apparaten oder

Prozessstufen. Zudem lassen sich spezielle Modelle unter Verwendung einer eigenen

Modellierungssprache einbinden.

Linde Engineering ist somit in der Lage, dynamische Maschinensimulationen für

komplexe Anlagen-Topologien in OPTISIM® schnell und in hoher Qualität

durchzuführen. Dies hat bereits in zahlreichen Projekten erfolgreich Anwendung

gefunden.

40

Bedeutung von Daten in der Prozessführung

Uwe Piechottka, Evonik Industries, Hanau, Deutschland

Grundlage für die Prozessführung sind Daten. Wobei hier Prozessführung

entsprechend der Definition von Schuler als die Gestaltung und Beherrschung des

Verhaltens eines Prozesses durch zielgerichtete technische Maßnahmen (z.B.

Verfahrenstechnik, Automatisierungstechnik und anderen technischen Disziplinen)

sowie durch die Tätigkeit der Anlagenfahrer verstanden wird. Dabei spielen Daten eine

große Rolle und sie treten an unterschiedlichen Stellen in Erscheinung:

• Daten werden gesammelt und verwaltet,

• in bestimmten Fällen werden Daten gezielt erzeugt,

• Daten werden ausgewertet,

• Daten werden auf unterschiedliche Art und Weise visualisiert und schließlich

• werden Daten zur Führung von Prozessen genutzt.

Der Vortrag zeigt mit Hilfe von Beispielen die Verwendung von Daten in diesen

verschiedenen Ebenen, was dabei zu beachten ist und welche Vorteile sich daraus

ergeben.

41

Realisierung von Advanced Control in einem Polymerproduktionsprozess

Tiago Finkler, Technische Universität Dortmund, Deutschland;

Sebastian Engell, Technische Universität Dortmund, Deutschland; Michael Kawohl. Evonik Industries, Marl, Deutschland,

Uwe Piechottka, Evonik Industries, Hanau, Deutschland

Ziel dieser Arbeit ist es, einen Weg aufzuzeigen und exemplarisch zu demonstrieren, wie fortgeschrittene modelbasierte Regelungsverfahren nachhaltig zur Optimierung der Prozessführung eines echten Polymerproduktionsprozesses eingesetzt werden können. Bei dem gewählten Prozess handelt es sich um einen Betrieb am Standort Chemiepark Marl, in der zwei unterschiedliche Produktgruppen, die sich durch unterschiedliche Viskositäten unterscheiden, im Semi-Batchbetrieb produziert werden. Ziele für die Optimierung sind die Reduzierung der Batchzeit bei gleichzeitiger optimaler Temperaturführung unter Einhaltung der Qualitätskennzahlen des Produkts. Modellierung des Prozesses Damit das Verhalten der Anlage simuliert werden kann, wurde ein rigoroses Prozessmodell erstellt und experimentell validiert. Das Modell besteht aus ungefähr 2000 differenziellen Gleichungen, die nicht nur die Änderung der Reaktionsrate sondern auch die Entwicklung der Molekulargewichtverteilung des Polymers während eines Batches sehr genau beschreiben können. Mit Hilfe empirischer Korrelationen kann auch die Viskosität des Polymers direkt aus der Molekulargewichtverteilung berechnet werden. Beobachtung der nicht messbaren Prozessgrößen Modellbasierte Regelungen benötigen eine Schätzung der nicht messbaren inneren Prozessgrößen, z. B. der Reaktionsrate und der Menge des Monomers im Reaktor, als Voraussetzung für die Optimierung. Damit die inneren Prozessgrößen geschätzt werden können, wurde ein erweitertes Kalman-Filter simulativ getestet und anschließend in das Prozessleitsystem der Anlage integriert. Modelbasierte Prozessreglung In einer Simulationsumgebung wurde ein modellbasierter prädiktiver Regler (MPC), der eine reduzierte Version des rigorosen Modells verwendet, implementiert. Dieser optimiert die Kühlungsleistung und die Monomerdosierung und berechnet voraus, wie viel Wärme durch die Reaktion entsteht. Dadurch kann die Monomerdosierung bestmöglich an die Leistung des Kühlsystems angepasst und die Batchzeit verringert werden. Die Robustheit des MPC wurde intensiv durch Simulation verschiedener Modellfehlerszenarien belegt. Dabei wurden wichtige Modellparameter verändert und deren Auswirkungen auf das Regelkreisverhalten überprüft. Ausblick Im nächsten Schritt des Projekts wird der modelbasierte Regler in das Prozessleitsystem der Anlage integriert und in deren realen Betrieb getestet. Die erste Erprobung soll bis Ende Oktober durchgeführt werden. Zudem soll unter Nutzung der erstellten Viskosität – Molekulargewichtskorrelation die Qualität des Produkts beobachtet und im weiteren Projektverlauf optimiert werden.

42

Methodiken zur Generierung optimaler Fahrschemata für Batch Destillationsprozesse in der chemischen Industrie

M. Wendt, G. Hofmann-Jovic, M. Strack, Infraserv GmbH & Co. Knapsack KG, 50354

Hürth, Deutschland

Wege zur Harmonisierung von Methodiken aus akademischen Studien und den Anforderungen der industriellen Anwendung. Batch-Destillationsprozesse werden in der chemischen Industrie zumeist dann angewendet, wenn der Zulauf (Feed) diskontinuierlich mit zum Teil starken Schwankungen in der Zusammensetzung erfolgt und stets hohe Reinheiten bei den leicht siedenden Komponenten angestrebt sind. In Batch-Betrieben laufen in der Regel hochdynamische Prozesse mit drastischen Zustandsänderungen während einer Charge ab. Zur Erreichung der gewünschten Endbedingungen, wie gewünschte Produktmengen mit gewünschten Reinheiten einzelner Fraktionen, werden in der Industrie zumeist konservative vereinfachte Prozessführungsstrategien gefahren mit keinen oder wenigen Änderungen bei den Prozessführungsgrößen. Andererseits sind für die Erreichung eines zuvor definierten Optimierungsziels stark frequentierte Änderungen der Prozessführungsgrößen während einer Charge erforderlich. Typische Optimierungsziele sind Maximierung der Produktausbeute (bei einer Oberschranke bzgl. der Batch-Zeit und/oder Unterschranke bzgl. der Reinheit), Minimierung der Batch-Zeit (Bei Unterschranke der Produktausbeute und Reinheit) oder Minimierung des Energieverbrauchs bezogen auf die Produktmenge. Zur Entwicklung optimaler Prozessführungsstrategien wurden vor allem im akademischen Bereich im Rahmen von theoretischen Studien viele Methodiken entwickelt, die vor allem auf die Verknüpfung von Prozessmodellen mit leistungsfähigen Algorithmen für die numerische Optimierung basierten. Die numerisch ermittelten Strategien basieren zumeist auf zeitlich fixierte Trajektorien von Steuerparametern wie z.B. Rücklaufverhältnis und Verdampferleistung. Obwohl das gewünschte Optimierungsziel dadurch weiter angenähert wird, wird in der industriellen Praxis nur selten auf die Verwendung dieser Methodiken zurück gegriffen, da oftmals Unsicherheiten über das tatsächliche Optimierungspotenzial und den erhöhten Aufwand seitens des Betriebspersonals bestehen. Zudem existieren gerade im Bereich der Spezialchemie oftmals große Unterschiede zwischen theoretischem Modell und realem Prozess, sodass ein direkter Transfer von theoretischen Optimierungsergebnissen zur realen Prozessführung keine weitere Verbesserung bewirken kann. Diese Präsentation setzt daher den Schwerpunkt auf mögliche Wege zur Umsetzung theoretischer Optimierungsergebnisse auf den realen Betrieb. Anfänglich werden allgemeingültige Untersuchungen zu Short-Cut Wegen bzgl. der Ermittlung des Optimierungspotenzials gezeigt und generelle Tendenzen bzgl. Verbesserungen bei frequentierter Variation von Rücklaufverhältnis und Verdampferleistung dargestellt. Anschließend werden zusätzliche Verbesserungsmöglichkeiten bei zusätzlicher Variation des Kolonnendrucks gezeigt.

43

Im zweiten Teil werden zunächst die wichtigsten Merkmale optimaler Trajektorien der Prozessführungsparameter herausgestellt. Die eigentliche Herausforderung besteht jedoch in der Umwandlung theoretischer Ergebnisse in für das Betriebspersonal leicht verwendbare Fahrschemata. Gerade die Unsicherheiten des dynamischen Prozessmodells erfordern zur Ermöglichung einer robusten Prozessführung, die am Ende z.B. die Produktreinheiten gewährleisten kann, praxisorientierte Schemata, die nicht an fixierte Zeitvorgaben gebunden sind. Im Fokus steht dabei die Verwendung von Zustandsgrößen, die leicht messbar und am wenigsten von Modell-unsicherheiten beeinflusst sind (wie z.B. gemessene Temperaturprofile), als Umschaltkriterien. Im ersten Beispiel zur Veranschaulichung wird die Sumpftemperatur als Umschaltkriterium für die sukzessive Herabsetzung des Kolonnendrucks verwendet, während der Füllstand in der Sumpfblase als Endkriterium fungiert. In einem anderen Beispiel wird das Temperaturprofil in der Umgebung des Kolonnenkopfs als Umschaltkriterium für die Änderung des Rücklaufs und die Sumpftemperatur als Endkriterium für die gesamte Charge verwendet. Bei Zuverlässigkeit dieser Messungen kann trotz Modellunsicherheiten für die gewünschte Produktreinheit im praktischen Betrieb gesorgt werden.

44

Significant reduction in the start-up time of dividing wall distillation column systems with the implementation of adequate strategies

Vargas, M., TU Hamburg-Harburg, Institut für Prozess- und Anlagentechnik, Hamburg; Fieg, G., TU Hamburg-Harburg, Institut für Prozess- und Anlagentechnik, Hamburg

The competiveness of today’s market demands quality products at lower prices and thus it is required the implementation of more efficient processes. A clear example to diminish energy usage and at the same time reduce investment costs in a thermal separation process is the technology of dividing-wall distillation column (DWC). In a single column shell it is possible to separate a multicomponent mixture in three pure components or fractions. Moreover dividing-wall column systems (DWCSys) can result in a promising configuration that allows separations into more products. These sophisticated separation sequences are of special importance in the chemical and petrochemical industry in which such separation tasks are frequently found. Since several years the Institute of Process and Plant Engineering (PAT) in the Hamburg University of Technology has been dedicated to the integral investigation of DWCSys. The study comprises the optimum steady state design of DWCSys and the evaluation of the dynamic behavior of the system as a starting point for the development of process control concepts (Vargas Gomez, Niggemann, and Fieg). However, the adequate operation of a DWCSys must also consider the start-up. Start-up is a complex operation generally characterized by a long and nonproductive duration. In this period, an empty column passes from ambient conditions to the required operation point. Out of spec products are accumulated and high amounts of energy are consumed. Hence, the industrial interest to minimize this nonproductive period is very high. In the simulation study of this work, for first time, improved start-up strategies are implemented in a DWCSys. The system separates a mixture of linear alcohols in a direct sequence of two DWC of industrial scale. The rigorous mathematical model used for this investigation was subject of an extensive experimental validation in a previous research in PAT (Niggemann, Hiller, and Fieg). The implemented start-up strategies in the DWCSys are examined and evaluated according to the start-up time, energy consumption and accumulation of out of spec products. The results evidence the high capacity of an adequate procedure to reduce the star-up time in comparison with conventional strategies. In addition is depicted the influence of impurities and changes in the concentration of the feed stream on the start-up behavior of the column system. Reference List: Niggemann, Gerit, Christoph Hiller, and G. Fieg. "Experimental and theoretical studies of a dividing-wall column used for the recovery of high purity products." Industrial and Engineering Chemistry Research 49 (14) (2010): 6566-77. Vargas Gomez, M. A., Gerit Niggemann, and G. Fieg. "Dynamic modeling and simulation of dividing-wall distillation column systemns ." 10th International Symposium on Process Systems Engineering (2009).

45

F³ Factory – A European Project Aiming at Modular Process Design Tobias Grömping, Sigurd Buchholz, Bayer Technology Services GmbH, Leverkusen,

Germany

Introduction The F³ Factory project is a major public private initiative seeking to develop new

manufacturing methods for the chemical and pharmaceutical industry. The F³ Factory

consortium (25 partners from 9 EU states) is crossing competitive boundaries to create

and implement a novel sustainable production methodology.

Approach and Status The approach of combining several product classes and products on a common

backbone enables the assessment of drivers and hurdles for the holistic modular

design approach. It is the aim to implement novel, intensified process steps into a

standardized production infrastructure which will allow for an overall faster time-to

market at lower capital and operational expenditures. The project approach of an

common standardized backbone influences the process development and design

approach as well as novel opportunities for both value added and supply chain.

Intensified technologies enable novel products but very often the effective engineering

approach is key to ensure technology implementation and product launch at

manufacturing costs feasible for the respective markets.

The presentation will thus highlight for several examples how process innovation

contributes to sustainable and efficient processes on different scales and how

standardization and modularization will contribute to a reduction of time-to market,

business risk and investment.

www.f3factory.eu

The research leading to these results has received funding from the European

Community‘s 7th Framework Programme under grant agreement n° 228867.

46

Innovative Produkt- und Prozessentwicklung mittels mobiler und modularer Miniplant-Technik

1 Müller, M., 2 Thielert, H., 1 Wozny, G. 1Technische Universität Berlin, Str. des 17. Juni 135, 10623 Berlin, Germany

2Uhde GmbH, Friedrich-Uhde-Strasse 15, 44141 Dortmund, Germany

Die Umsetzung von Neuentwicklungen in kontinuierlich betriebenen, industriellen

Großanlagen gestaltet sich häufig schwierig, da diese mit zum Teil hohen Kosten z.B.

für Umrüstung, Anlagenstillstand / Produktionsausfall oder Erneuerung / Entsorgung,

aber auch mit Risiken verbunden sind, denen sich Anlagenbetreiber gegenüber sehen.

In der Regel erfolgt die Weiterentwicklung verfahrenstechnischer Prozesse zunächst

anhand von Vorversuchen und Computersimulationen, deren Praxistauglichkeit in

Versuchsanlagen im Labor- und Technikumsmaßstab überprüft wird. Da in

Laboreinrichtungen Realeinflüsse, wie z.B. komplexe Stoffströme aus vorgelagerten

Produktionsanlagen häufig nicht exakt nachgestellt werden können, ist der Schritt aus

dem Technikum in die Praxis mitunter zu groß und riskant.

Am Beispiel der Verwendung eines alternativen Waschmittels zur Rückgewinnung

aromatischer Kohlenwasserstoffe aus Kokereigasen soll gezeigt werden, dass mit Hilfe

einer mobilen Miniplant-Anlage die Lücke zwischen Untersuchungen im

labortechnischen Maßstab und der realen, industriellen Anwendung geschlossen

werden kann (siehe Abbildung 1). Dadurch können etwaige Risiken gesenkt, Kosten

eingespart, die Entwicklungszeit verkürzt und Erfahrungen, auch bei unterschiedlichen

bis extremen Prozesseinstellungen, gesammelt werden.

Abbildung 3: Technikumsversuchsanlage links und mobile, modulare Benzolwäscheanlage im industriellen Bypassbetrieb rechts

47

Die beispielhaft ausgewählte Benzolwäsche erfolgt im Rahmen der

Wertstoffrückgewinnung aus Kokereigasen auf der sogenannten weißen Seite einer

Kokerei. In einer Kreislaufwäsche wird das Waschmedium zunächst mittels

physikalischer Absorption bei ca. 30°C beladen, anschließend vorgewärmt und bei ca.

180°C mit Hilfe von Stripdampf regeneriert. Um Waschmittelverluste zu minimieren ist

dem Abtriebsteil der Desorption ein Rektifikationsteil aufgesetzt. Das Kopfprodukt,

bestehend aus einer organischen und einer wässrigen Phase wird anschließend in

einem Phasenabscheider aufgetrennt, um letztlich Rohbenzol, bestehend aus den

Hauptkomponenten Benzol, Toluol und Xylol (BTX), als Produkt zu erhalten. Neben

dem allgemeinen, schematischen Aufbau der Benzolwäsche, zeigt Abbildung 2 einige

grundlegende Auslegungsparameter der mobilen Miniplant-Anlage. Auslegung,

Planung und Aufbau der voll automatisierten Miniplant Anlage erfolgte an der TU-

Berlin nach industriellem Vorbild im Maßstab 1:1000. Dank einer modularen und

effizienten Anlagenplanung, konnte die Inbetriebnahme auf der Kokerei ZKS in

Dillingen/Saar bereits nach 4 Monaten erfolgen. Die Versorgung der Miniplant mit

Kokereigas, Prozessdampf und Kühlwasser erfolgte über vordefinierte Schnittstellen

mit entsprechenden Rückführungen zum industriellen Prozess, so dass keine

Emissionen verursacht wurden. Im Rahmen der Modularisierung wurde bei der

Konstruktion darüber hinaus auf eine verstärkte Flexibilität geachtet, so dass

Modifikationen, wie z.B. der Austausch von Packungen und/oder Kolonnenböden,

erleichtert werden. Im Vortrag werden alle Schritte von der Planung bis zur

Versuchsdurchführung und -auswertung erläutert.

Desorption

Kolonnendurchm.: 100 mm Einbauten: Super-Pak 350 Höhe: 1.0 m

Rektifikation Kolonnendurchm.: 100 mm Einbauten: Super-Pak 350 Höhe: 0.5 m

Absorption Kolonnendurchmesser: 100 mm Einbauten: Mellapak 350 Höhe: 1.5 m F-Faktor: 1.0 - 1.6 Flüssigkeitsbelastung: 5-10 m³/m²

Pa

Absorption Desorption

Kokereigas

beladenes Waschmittel

regeneriertes Waschmittel

Wasserdampf

Roh‐benzol

Rücklauf

Scheide‐wasser

Abbildung 4: Benzolwäscheprozess schematisch, einschließlich einiger Auslegungs-parameter der mobilen Miniplant

48

Modulare Anlagenkonzepte: Modulauswahl und Wirtschaftlichkeit Dipl.-Ing. Stefan Sievers, Dipl.-Ing. T. Seifert,

Dr.-Ing. C. Bramsiepe, Prof. Dr.-Ing. G. Schembecker

Technische Universität Dortmund, Dortmund/Germany

Die zukünftigen Herausforderungen für die Chemie- und Pharmabranche bestehen in

verkürzten Produktlebenszyklen, kleineren Produktionsmengen einzelner Produkte, einem

vergrößerten Produktspektrum und unsteten Marktentwicklungen. Daher werden sich kurze

Vorlaufzeiten und eine flexible Produktion zu zwei der entscheidenden Faktoren für

wirtschaftlichen Erfolg entwickeln.

Da derzeitige Methoden der Anlagenplanung bereits hochoptimiert sind, müssen neue

Konzepte entwickelt werden um Planungs- und Konstruktionszeiten zu verkürzen. Das

Ergebnis solch eines neuen Entwicklungskonzepts müssen Produktionsanlagen sein, die in

der Lage sind durch eine flexible Anpassung der Produktionskapazitäten dem Marktbedarf

zu folgen. Diese Flexibilität kann durch Anlagen erreicht werden, die aus mehreren

kleinskaligen Produktionslinien bestehen. Um jedoch konkurrenzfähig zu konventionellen

Anlagen zu sein, muss die „Economy of scale“ überwunden werden. Daher muss zusätzlich

zu dem parallelen Aufbau identischer Produktionslinien nach zusätzlichen Hebeln zur

Steigerung der Wirtschaftlichkeit gesucht werden. Einer dieser Hebel ist die Modularisierung.

Werden Anlagen aus standardisierten Modulen aufgebaut anstelle von teurem,

maßgeschneidertem Equipment, können die Planungs- und Konstruktionszeit, wie auch die

Investitionskosten reduziert werden. Zusätzlich bietet ein solches Konzept die Möglichkeit,

Anlagen direkt beim Kunden zu betreiben und so Transportkosten einzusparen.

Für den erfolgreichen Entwurf eines modularen Prozesses und die Verkürzung der

Vorlaufzeit, muss die gesamte Planungsprozedur verändert werden. Statt das Equipment an

den Prozess anzupassen, muss nun der Prozess den Modulen angepasst werden. Die Wahl

geeigneter Modulkombinationen wird sowohl

von dem entsprechenden Marktszenario,

wie auch der Modulverfügbarkeit beeinflusst.

Letzten Endes entscheidet immer die

Gesamtwirtschaftlichkeit über die Auswahl

der optimalen Modulkombination.

In der Präsentation wird ein Konzept für die

Wahl geeigneter Module und deren

Verschaltung, wirtschaftliche Bewertung und

den Vergleich mit konventionellen

Anlagendesigns vorgestellt. Hierbei wird der

Workflow für die Modulauswahl durch das Fig. 1: Modular Plant Design using ProMoT

49

als Teil des F³ Projekts entwickelte Software Tool ProMoT (Production Mode Selection Tool)

unterstützt. Das ProMoT Tool kombiniert die Prozesssimulation und wirtschaftliche

Bewertung um eine ganzheitliche Betrachtung des untersuchten Prozesses zu ermöglichen.

In ProMoT können kontinuierliche, absatzweise betriebene sowie modulare Anlagen

abgebildet werden. Die Wirtschaftlichkeit der unterschiedlichen Produktionskonzepte und

Betriebsmodi kann mit Discounted Cash Flow Auswertungen miteinander verglichen werden.

Hierbei können spezifische Rahmenbedingungen wie die regionale Kundenverteilung, die

zugehörigen Lieferketten und dadurch entstehende Kosten abgebildet werden. Zusätzlich

können Aspekte der Flexibilität durch Abbildung der Produktion über den gesamten

Produktlebenszyklus mit entsprechenden Marktbedarfsszenarien untersucht werden.

Hierdurch ist es möglich, die Flexibilität, Lieferkostenersparnis, Prozesseffizienz und den

Einfluss des modularen Anlagendesigns zu bewerten.

Acknowledgment The research leading to these results has received funding from the European

Community‘s 7th Framework Program under grant agreement n° 228867, F3 Factory.

50

Erweiterte Kapitalwertanalyse modularer chemischer Anlagen zur Quantifizierung von Flexibilität und Unsicherheit M. Grünewald, S. Lier, D. Wörsdörfer, Ruhr-Universität Bochum

Bezüglich des ökonomischen Vergleiches modularer und konventioneller chemischer Anlagen wird bisher stets auf das Konzept der klassischen, bekannten Kapitalwertmethode zurückgegriffen. Dieses bisher bewährte Verfahren betrachtet und bewertet jedoch nur unzureichend diejenigen Faktoren, welche insbesondere bei der Beurteilung modularer Anlagenkonzepte von gesteigerter Relevanz sind.

Zum Einen kann der Vorteil solcher Anlagenkonzepte hinsichtlich der Entscheidungsflexibilität nicht ausreichend abgebildet werden. Dieser besteht aus dem nicht vorhandenen Zwang, bereits zum heutigen Zeitpunkt einmalig eine sehr langfristige, voluminöse und starre Investitionsentscheidung zu treffen. Die ökonomisch quantifizierte Bewertung dieser Entscheidungsflexibilität im Rahmen des Konzeptes der modularen Chemieanlage ist die grundlegende Intention des vorgestellten, erweiterten betriebswirtschaftlichen Modells.

Zum Anderen kann mithilfe der klassischen Kapitalwertanalyse die Unsicherheit bei der Beurteilung von Investitionen in chemischen Anlagen quantitativ nicht berechnet werden. Dabei sind insbesondere Unsicherheiten bezüglich der Höhe zukünftiger Cash-Flows von Bedeutung. Schwankende Marktpreise, volatile Absatzmengen und nicht fest kalkulierbare Kosten sind Ursachen dieser Unsicherheit.

Gegenstand des Vortrages sind die Ergebnisse der Masterarbeit. Sie beinhalten die Vorstellung eines auf der traditionellen Kapitalwertanalyse aufbauenden erweiterten Berechnungsmodells im Hinblick auf einen realitätsnäheren wirtschaftlichen Bewertungsvergleich modularer und konventioneller Chemieanlagen. Hierzu gliedert sich der Inhalt in folgende Punkte:

• Zu Beginn wird die Idee des ökonomischen Mehrwertes durch vorhandene Flexibilität beispielhaft eingeführt und dadurch auf intuitive Weise erläutert.

• Im Folgenden findet das Vorgehen zur Ermittlung des erweiterten Kapitalwertes eingehende Erläuterung. Die Funktionsweise des Modells wird somit schrittweise veranschaulicht, um es anschließend auf den Fall der modularen Chemieanlage übertragen zu können.

• Abschließend erfolgt die Ergebnispräsentation der Kalkulation eines praxisrelevanten Fallbeispiels. Sensitivitätsstudien sowie Vergleichsanalysen zu vorhergehenden Berechnungen runden den Vortrag ab.

51

Wissensbasierte Assistenzsysteme für modulares Engineering

Michael Obst, Technische Universität Dresden, Dresden/Deutschland

Falk Doherr, Technische Universität Dresden, Dresden/Deutschland

Leon Urbas, Technische Universität Dresden, Dresden/Deutschland

Einleitung und Motivation Im Lebenszyklus einer Anlage ist der Abschnitt der Planung durch umfangreiche

Investitionen geprägt. Üblicherweise beläuft sich die Dauer von der

Produktentwicklung bis zur Inbetriebnahme einer Anlage, auf ca. fünf bis zehn Jahre

[1]. Um eine qualitativ äquivalente Planung in einem kürzeren Zeitraum gewährleisten

zu können, ist die Entwicklung neuer Methoden und Technologien erforderlich.

Standardisierte Module in Kombination mit wissensbasierten Ansätzen können sich

wiederholende Problemstellungen in deutlich kürzerer Zeit lösen. Aus dieser

Motivation heraus werden die Modularisierungsansätze und das Fallbasiertes

Schließen im verfahrenstechnischen Kontext in Theorie und an praktischen Beispielen

zusammengebracht und untersucht.

Modularisierung Die Gestaltung des verfahrenstechnischen Anlagenbau nach modularen

Gesichtspunkten bringt den Vorteil einer schnelleren Fertigung der Anlage mit sich.

Dies wird durch Wiederverwendung sowie Standardisierung erreicht. Die Schwierigkeit

bei der Definition von Modulen liegt in der Begründung der Grenzen zwischen den

einzelnen Teilen. Es muss fundiert argumentiert werden, warum ein Planungsobjekt zu

einem bestimmten Modul zugehörig ist. Dabei gilt es, die Kriterien und Richtlinien der

Modulerstellung zu beachten. Grundlegende Kriterien zur Modulbewertung sind innere

Festigkeit und Abgeschlossenheit, Geringe Kopplung, Geheimnisprinzip,

Handhabbarkeit und Wiederverwendbarkeit.

Sind diese Kriterien erfüllt, können Teilanlagenmodule aus beliebigen

Baugruppenmodulen zusammengesetzt werden. Der Vorteil der modularen

Betrachtungsweise besteht in der Abgeschlossenheit einzelner Module und der

minimalen Rückkopplung auf andere Module.

52

Fallbasiertes Schließen im verfahrenstechnischen Kontext Wenn auch ein großer und wichtiger Teil unseres Wissens sich als Regelbasis

formalisieren lässt und Schließen oft als Verkettung geeigneter Regeln verstanden

wird, so kann damit die menschliche Intelligenz doch nicht erschöpfend dargestellt

werden. Ebenso wichtig erweist sich, sowohl im alltäglichen Leben wie auch in

fachlichen Diskussionen, unser Erfahrungswissen, also Wissen welches mit konkreten

Beispielen und Situationen verbunden ist [2]. Genau diesen Ansatz verfolgt das

Fallbasierte Schließen. Das Wissen besteht nicht aus generischen Regeln, sondern

aus einer Sammlung von Fällen (cases), in denen spezifische frühere Erfahrungen

gespeichert sind. Ein neues Problem wird gelöst, indem ein ähnlicher Fall aus der

Vergangenheit in der neuen Situation wiederverwendet wird. Ein weiterer wichtiger

Unterschied zu regelbasierten Systemen besteht im Ansatz zum inkrementellen

nachhaltigen Lernen, bei dem aus jeder Problemlösung eine Erfahrung gewonnen

wird, die für zukünftige Probleme zur Verfügung steht.

Zusammenfassung Das Fallbasierte Schließen bietet die Möglichkeit, mit einer unvollständigen bzw.

unscharfen Problembeschreibung zu einem Lösungsansatz zu gelangen. So kann

bereits mit einem geringen Umfang an verfahrenstechnischen Informationen über ein

Modul, wie zum Beispiel Drücke, Volumenströme oder Temperaturen, eine Aussage

über den späteren Aufbau getroffen werden. Wenn ein bestimmter Parametersatz

eines Moduls eine hohe Ähnlichkeit zu einem bereits in der Fallbasis vorhandenen

aufweist, kann die dazugehörige (alte) Lösung mit einer hohen Wahrscheinlichkeit

wiederverwendet und angepasst werden. Dieser Ansatz wird an der TU-Dresden

untersucht und an praktischen Beispielen überprüft.

Literatur: [1] G. Schembecker and T. Bott. Die 50% - Idee Vom Produkt zur Produktionsanlage in der

halben Zeit. PAAT-Jahrestreffen 2009.

[2] C. Beierle and G. Kern-Isberner. Methoden wissensbasierter Systeme. Vieweg+Teubner

Verlag, 2008.

[3] Y. Avramenko and A. Kraslawski. Case based design : applications in process engineering,

volume 87 of Studies in Computational Inteligence. Springer, Berlin, 2008.

53

Anwendung einer integralen Bewertungsmethodik für die Standortplanung und Dimensionierung von Wasserstoff-Elektrolyse-Anlagen

T. Günther, W. Witt, BTU Cottbus

Ein Ansatz zur langfristigen Absicherung der Mobilität basiert auf Wasserstoff als Energiequelle. Daneben bietet Wasserstoff Verwendungsmöglichkeiten bei der Kraft-Wärme-Kopplung sowie für die Grundstoffversorgung. Dieser Beitrag bezieht sich auf die Bereitstellung von Wasserstoff unter Einsatz von Elektrolyse-Anlagen. Wesentliche Faktoren für die Planung von Wasserstoff-Elektrolyse-Anlagen sind die Versorgung mit elektrischem Strom und Wasser, die verfügbare Infrastruktur und die Nutzungsmöglichkeit der Nebenprodukte Sauerstoff und Abwärme. Die Standortbedingungen bestimmen neben wirtschaftliche Faktoren auch die Anlagengröße. Die Vielfalt der potentiellen Standorte, sowie Optionen hinsichtlich Anbindung an Stromnetze, Windparks, Industrieparks sowie Großabnehmer erhöht die Komplexität der Entscheidungsfindung. Da andererseits mittelfristig ggf. viele derartige Anlagen zum Einsatz kommen können, ist die Entwicklung einer effizienten Bewertungsmethode für die Planung der Netzinfrastruktur, die Durchführung von Machbarkeitsstudien und die Standortplanung naheliegend. Zur Unterstützung derartiger Bewertungen/Studien wurde ein integraler Ansatz entwickelt. Er basiert auf die Bilanzierung der verfahrenstechnischen Grundoperationen unter Einbezug der Energieversorgung und der lokalen Produkt-Speicherung für 24 Stunden. Für eine vorgegebene Leistung (Einspeiseleistung (z.B. 10 MW) oder Produktionsleistung (z.B. 2500 Nm³/h Wasserstoff) können die Anlagengröße, Prozessströme, Kosten und Wirtschaftlichkeits-Kennzahlen unter Berücksichtigung der jeweils vorliegenden Standortbedingungen (u.a. fluktuierende oder kontinuierliche Bereitstellung des Stroms) simuliert werden. Der gewählte Ansatz ist prinzipiell auch auf die Bewertung technischer Alternativen ausgerichtet. Im Vortrag werden zunächst zentrale Aspekte der Methodik und der Umsetzung des entwickelten Lösungsansatzes vorgestellt. Anhand ausgewählter Fallbeispiele wird dann der Einsatz der Bewertungsmethode demonstriert. Dabei werden unterschiedliche Standorte (Windpark und Industriepark), Kapazitäten und Stromeinspeiseprofile berücksichtigt.

54

Aus der Industrie zur Hochschule - Die ersten 100 Tage Norbert Kockmann, TU Dortmund, BCI, Apparatedesign

Aus dem Studium oder dem Beginn des Berufslebens ist sicher noch jedem der Begriff

„Praxisschock“ bekannt, der den Übergang von der Hochschule in die Industrie

begleitet. Durch Industriepraktika und spezielle Vorlesungen und Veranstaltungen

gestaltet mit Hilfe von Industrievertretern soll den Studierenden der Übergang

erleichtert werden. Weiterhin erleichtern Firmen den Einstieg neuer Mitarbeiter durch

spezielle Einarbeitungsprogramme, Mentoring oder „training-on-the-job“. Doch wie

gestaltet sich der umgekehrte Schritt?

Der Weg von der Industrie zurück zur Hochschule ist von vielen Überraschungen und

Unwägbarkeiten begleitet. Neue Zwänge treten auf, aber es eröffnen sich auch neue

Möglichkeiten, die schnell genutzt werden sollten. Dabei ist eine Fokussierung und

gute Organisation notwendig, um im Arbeitsalltag zu bestehen. Weitere Punkte werden

im Beitrag genannt, um zur Diskussion aufzurufen und gegenseitiges Verständnis zu

wecken.

55

Herausforderung Feststoffprozesse: Vom Design bis zum Anfahren Katharina Bauer, Gordana Hofmann-Jovic, Michael Strack Infraserv GmbH & Co.

Knapsack KG, Hürth

Bei der Auslegung und Planung von Verfahren und Anlagen in den Feststoffe

auftreten, ist insbesondere wenn es sich um unbekanntere Stoffe handelt mit

unvorhersehbaren Schwierigkeiten zu rechnen. Auf dem Gebiet der Spezialchemie ist

es meist so, dass, auch wenn das Hauptprodukt gut bekannt und einfach handhabbar

ist, dies nicht unbedingt für die Nebenprodukte zutrifft. Da sich das Verhalten von

Feststoffen nur begrenzt modellieren und damit oft nicht zuverlässig in Simulationen

vorhersagen lässt, müssen ausreichend experimentelle Daten vorliegen. Insbesondere

bei neuen Produkten bleibt jedoch bei der Auslegung eine große Unsicherheit, da noch

keine Erfahrungen aus der Praxis existieren und so nicht sichergestellt ist, dass die

Experimente alle relevanten Fälle abdecken.

Die Infraserv GmbH & Co. Knapsack KG bietet Ingenieurdienstleistungen mit einem

besonderen Schwerpunkt auf dem Engineering von Individualanlagen für die

Spezialchemie - von der Prozessentwicklung über Conceptual Design bis zu Basic

Engineering und Detail Engineering an. In den letzten Jahren plante die Infraserv

Knapsack mehrere Anlagen in denen Feststoffe als Haupt- oder Nebenprodukt

verarbeitet werden. Da die Feststoffe aus den unterschiedlichsten Stoffklassen

stammen und somit sehr unterschiedliche Eigenschaften haben, stellt jedes Verfahren,

jede Anlage und jede Lösung einen Einzelfall dar.

Im Vortrag soll anhand von Beispielen aus aktuellen Projekten ein Einblick in die

Praxis bei der Behandlung von Feststoffen und damit verbunden Schwierigkeiten

gegeben werden. Die Beispiele decken den gesamten Planungsprozess von der

Prozessentwicklung bis zu Inbetriebnahme ab und verdeutlichen wie individuell durch

Feststoffe hervorgerufene Probleme und mögliche wirtschaftliche Lösungen sind.

56

Anwendung des sequentiell-modularen Ansatzes auf die dynamische Fließschemasimulation von Feststoffprozessen

M. Dosta1, S. Heinrich1, E.-U. Hartge1, M. Pogodda2, C. Reimers2 1Technische Universität Hamburg-Harburg,

Institut für Feststoffverfahrenstechnik und Partikeltechnologie, Hamburg 2SolidSim Engineering GmbH, Hamburg

Industrielle Produktionsprozesse erfordern in der Regel die Kombination verschiedener Apparate zur Durchführung der erforderlichen Produktionsschritte, häufig in komplexen Verschaltungen mit Materialrückführungen. Zur Modellierung und Simulation solcher Prozesse werden Fließschemasimulationssysteme eingesetzt, zum Beispiel zur Auslegung und Optimierung der betrachteten Verfahren. In den letzten Jahren wurde das Simulationssystem ‚SolidSim’, das zunächst für die stationäre Simulation von Feststoffprozessen entwickelt wurde, um die Möglichkeit zur dynamischen Simulation zur Beschreibung des Zeitverhaltens eines Prozesses erweitert. Dabei wurde ein sequentiell-modularer Lösungsansatz verwendet, dessen Vor- und Nachteile gerade in Hinblick auf die Modellierung von Apparaten der Feststoffverfahrenstechnik in diesem Beitrag betrachtet werden. Im Vergleich zu einer gleichungsorientierten Lösungsstrategie, welche im Rahmen der dynamischen Simulation von Fluidprozessen erfolgreich eingesetzt wird, ermöglicht der modulare Lösungsansatz die gleichzeitige Verwendung von unterschiedlichen, angepassten und optimierten mathematischen Gleichungslösern zur Auswertung der Modelle der einzelnen Unit Operations. Gerade im Bereich der Feststoffverfahrenstechnik, im dem zum einen mehrdimensionale Populations-bilanzen behandelt und zum anderen aus mathematischen Sicht verschiedenste, miteinander gekoppelte Gleichungssysteme gelöst werden müssen, stellt dies einen Vorteil da. Startwertprobleme, die häufig ein Problem bei der gleichungsorientierten Lösungsstrategie darstellen, treten bei einem modular-sequentiellen Lösungsansatz ebenfalls in den Hintergrund. Den Vorteilen steht ein höherer numerischer Aufwand entgegen, der aber durch Einsatz von Parallelisierungsstrategien im Rahmen gehalten werden kann. Die entwickelte Methodik zur dynamischen Prozesssimulation wird am Beispiel verschiedener Granulation- und Agglomerationsprozesse mit unterschiedlichen Fahrweisen vorgestellt.

57

Kostenabschätzung in frühen Phasen der Prozessentwicklung

Marius Harrmann und Gerhard Schembecker Lehrstuhl für Anlagen und Prozesstechnik Fakultät Bio- und Chemieingenieurwesen,

Technische Universität Dortmund, Emil-Figge Straße 70, 44227 Dortmund, Deutschland Zu Beginn der Prozessentwicklung stehen viele alternative Möglichkeiten der Synthese und des Downstreams zur Verfügung. Für entscheidende Designdetails und Verschaltung der Unit-Operations stehen in dieser Phase nur wenige experimentelle Daten und rigorose Modelle zur Verfügung. Deshalb soll während der Vorversuche in der Laborplanungsphase ein entscheidender Blick auf das spätere Gesamtkonzept gelegt werden. Hierfür muss eine Methode entwickelt werden, die den Forschungsfortschritt möglichst schnell und klar vorgibt. Die Kommunikation zwischen Chemikern und Ingenieuren erhält einen großen Stellenwert, der starker Optimierung bedarf. Betriebspunktveränderungen im Reaktor haben großen Einfluss auf das Gesamtdesign des Prozesses und den damit verbundenen Betriebskosten. Es reicht nicht aus klassische Kennwerte der Reaktion zu untersuchen und diese zu optimieren. Eine Verbesserung der Selektivität kann den Aufwand des Downstreams verringern. Der gewinnbestimmende Kostenfaktor sollte zu einem frühen Zeitpunkt erkannt und kommuniziert werden. Liegt dieser nicht im Downstream müssen alternative Konzepte, den Gesamtprozess im Blickfeld, entwickelt werden. Große Unsicherheiten und Annahmen müssen bei der Übertragung von Batch-Versuchen im Labor auf die Planung eines kontinuierlichen Prozesses getroffen und berücksichtigt werden. Erste Laborergebnisse werden mit Hilfe eines einfachen Referenzprozesses verglichen. So wird überprüft, ob ein wirtschaftlicher Prozess vorliegen kann und der Forschungsfortschritt in der frühen Planungsphase effektiv auf den späteren Gesamtprozess Einfluss nimmt. Der Vortrag zeigt erste Ergebnisse im Rahmen des Sonderforschungsbereiches Transregio 63 „InPrompt“ der DFG. Es handelt sich um die Beispielreaktion Hydroformylierung von 1-Dodecen in Mehrphasen-Lösemittelsystemen. Es wird ein erster Vorschlag für die Kommunikation zwischen Prozessentwicklern und Laborforschern präsentiert. Basierend auf Kostenabschätzungen für erste Laborversuche wird ein Ansatz zur Entwicklung von Versuchsplänen zur gezielten Steuerung weiterer Experimente vorgeschlagen.

58

Werkzeugunterstützung für den konzeptionellen Entwurf kontinuierlicher chemischer Prozesse

Jochen Steimel und Sebastian Engell

Lehrstuhl Systemdynamik und Prozessführung, Fakultät Bio- und Chemieingenieurwesen, Technische Universität Dortmund, Emil-Figge Straße 70,

44227 Dortmund, Deutschland Trotz zahlreicher Versuche, die frühe Phase der konzeptionellen Prozessentwicklung zu formalisieren, konnte bisher keine standardisierte Methode für die Prozesssynthese im frühen Stadium der Prozessentwicklung entwickelt werden. In vielen Fällen führt dies dazu, dass konzeptionelles Design auf Basis von Expertenwissen und vereinzelten Simulationen von ausgewählten Prozessalternativen stattfindet [1]. Die in diesem Beitrag vorgestellte Methode soll die frühe Phase des konzeptionellen Prozessentwurfes, die von unvollständiger und mit großen Unsicherheiten behafteter Information geprägt ist, unterstützen. Die Methode wird derzeit in einem Computerwerkzeug implementiert, das die hierarchische Modellierung von Fließbildsuperstrukturen, deren Optimierung und die Analyse der Auswirkungen von Unsicherheiten der Prozessparameter unterstützt.. Die Prozesssuperstruktur wird in einem graphischen Editor eingegeben und umfasst neben verbindlichen Prozessschritten auch optionale Blöcke und exklusive Designalternativen. Unterschiedliche Verknüpfungen der Unterfließbilder untereinander spannen einen Baum von möglichen Alternativen auf. Mit fortschreitender Entwicklung werden dem Baum neue Unterfließbilder hinzugefügt und bestehende Fließbilder erweitert. Die Entwicklung bleibt hierbei transparent, da jede Änderung mit Meta-Information wie Benutzername, Datum und Grund der Änderung versehen wird. Aus der Superstruktur wird ein zweistufiges Optimierungsproblem generiert. Die erste Stufe enthält alle binären Entscheidungsvariablen, wie z. B. die Existenz eines Prozessschrittes, und die diskreten Designentscheidungen, wie z. B. die Wahl eines Katalysators oder Lösungsmittels. Die zweite Stufe umfasst Betriebsparameter wie Druck, Temperatur und Molenströme der Prozessschritte, die während des Betriebs der Anlage verändert werden können. Mit Hilfe der Steuerparameter können die Auswirkungen von Unsicherheiten in einem gewissen Rahmen kompensiert werden. Ein zweistufiger evolutionärer Algorithmus wählt aus der Superstruktur eine zulässige Kombination von Verfahrensschritten aus und generiert ein reduziertes kontinuierliches nichtlineares Optimierungsproblem (NLP), welches nur die Variablen und Gleichungen der in dem Design vorkommenden Prozessschritte enthält. Das NLP wird nachfolgend für eine Reihe von Szenarien gelöst, die sich aus einer dreistufigen Diskretisierung der Unsicherheitsintervalle ergeben. Die Verteilung der Kosten für ein Verfahren wird aus der Verteilung der Kosten der Szenarien approximiert.

59

Der evolutionäre Algorithmus sucht neue Designalternativen gemäß einer multikriteriellen Optimierung aus [2]. Hierbei werden aus der Verteilung der Kosten für ein Verfahren statistische Kenngrößen extrahiert, die die Suchrichtung des Algorithmus steuern (z. B. Produktionskosten und Robustheit). Mit Hilfe der Pareto-Front können vielversprechende Designalternativen sowie wahrscheinliche Bereiche für Betriebsparameter identifiziert und der Kompromiss zwischen zwei Kenngrößen quantifiziert werden. Die Modellunsicherheiten der vielversprechenden Prozessvarianten werden nachfolgend einer Signifikanzanalyse unterzogen, deren Ergebnis die Sensitivität der Kosten auf die Unsicherheitsintervalle darstellt. Mit dieser Information und den aussichtsreichen Bereichen der Betriebsparameter können Versuchspläne für Laborversuche erstellt werden, um die für das Gesamtverfahren signifikanten Unsicherheiten in den relevanten Bereichen zu verkleinern. Insbesondere soll so verhindert werden, dass Laborexperimente in Parameterbereichen durchgeführt werden, die für den Gesamtprozess irrelevant sind. Die vorgestellte Methode wird auf die Entwicklung eines neuartigen Prozesses zur Hydroformylierung langkettiger Alkene in Mehrphasensystemen angewendet. Mess- und Literaturdaten werden benutzt um die Leistung von Reaktoren und Phasentrennungen vorherzusagen, und wahrscheinliche Betriebsfenster sowie signifikante Parameter zu identifizieren. Literatur [1] Li, X., Kraslawski A., Conceptual process synthesis: past and current trends,

Chemical Engineering and Processing, 43, 589-600, 2004 [2] Tometzki, T. and Engell, S.: Risk conscious solution of planning problems under

uncertainty by hybrid multi-objective evolutionary algorithms, in press, Computers & Chemical Engineering, 2011.

60

Neue Methode für die Synthese von großen Wärmeübertragernetzwerken

Brandt, C., TU Hamburg-Harburg, Institut für Prozess- und Anlagentechnik, Hamburg

Fieg, G., TU Hamburg-Harburg, Institut für Prozess- und Anlagentechnik, Hamburg

Luo, X., Helmut-Schmidt-Universität, Hamburg

Engel, O., XRG Simulation GmbH, Hamburg

Herstellverfahren der Prozessindustrie gehen häufig mit einem sehr hohen

Energiebedarf einher. Angesichts der stetigen Verknappung zugänglicher Energie

kommt der Wärmerückgewinnung in der verfahrenstechnischen Industrie daher eine

immer größer werdende Rolle zu. Die integrierte Nutzung von Energieströmen durch

ein Wärmeübertragernetzwerk (HEN) bietet ein großes Potential, den Energiebedarf

einer Produktionsanlage deutlich zu senken. Mit steigendem Grad an

Wärmerückgewinnung sinken die Energiekosten, gleichzeitig steigen die Kosten für

Investitionen, Wartung und Prozessführung, so dass diese Problemstellung den

klassischen Optimierungsaufgaben zugeordnet werden kann, deren Lösung jedoch bis

heute eine sehr komplexe Aufgabenstellung darstellt. Dies gilt insbesondere für sehr

große Wärmeübertragernetzwerke, da hier extrem viele diskrete und kontinuierliche

Variablen berücksichtigt werden müssen.

Über die letzten drei Jahrzehnte wurde eine Vielzahl an Methoden vorgeschlagen, um

diese Aufgabenstellung zu lösen. Die Methoden der Pinch-Technologie sind dabei

aufgrund ihrer Leistungsfähigkeit und der strukturierten sequentiellen

Herangehensweise an die Problemstellung sowie der Verfügbarkeit von

entsprechender Software in der Industrie weit verbreitet und akzeptiert. Aktuell zeigen

eigene Untersuchungen jedoch, dass mit maßgeschneiderten genetischen

Algorithmen deutlich bessere Ergebnisse erzielt werden können [1,2,3]. Aufgrund der

bereits angesprochenen enormen Anzahl zu optimierender Variablen ist die

erforderliche Rechenzeit für große Problemstellungen mit diesem Verfahren jedoch

sehr hoch. Zur Bewältigung dieses Problems wurde am Institut für Prozess- und

Anlagentechnik der Technischen Universität Hamburg-Harburg ein innovatives

Verfahren entwickelt, welches den Rechenaufwand drastisch reduziert.

61

Diese neue Methode basiert auf dem Konzept der Subnetzwerke. Im Kontext von HEN

ist ein Subnetzwerk ein Teil des Gesamtnetzwerks, das keinen thermischen Kontakt zu

einem anderen Teil des Netzwerkes aufweist. Subnetzwerke lassen sich somit als

unabhängige Teilprobleme auffassen, die sehr gut mit dem genetischen Algorithmus

gelöst werden können. Eine weitere qualitative Verbesserung der Lösung wird durch

eine anschließende Optimierung von Kombinationen aus einzelnen Subnetzwerken

erreicht. Die Leistungsfähigkeit dieser neuen Methode konnte anhand von industriell

relevanter Beispiele erfolgreich nachgewiesen werden.

Der vorliegende Beitrag gliedert sich in drei Teile. In einer kurzen Einführung werden

essentielle Grundlagen der kostengetriebenen Optimierung von

Wärmeübertragernetzwerken mittels genetischer Algorithmen vermittelt. Außerdem

wird auf die Besonderheiten bei der Synthese von sehr großen HEN eingegangen. Die

Vorstellung der neuen Herangehensweise zur Lösung dieser Problemstellung erfolgt

im zweiten Teil des Beitrags. Im dritten Teil des Beitrags werden exemplarisch

Lösungen, die mit dem neuen Verfahren erzielt worden sind, hinsichtlich des

Rechenaufwandes, der jährlichen Gesamtkosten und der Qualität der

Netzwerkstrukturen mit Ergebnissen aus der Literatur verglichen. Auf diese Weise

werden die Vorteile der Synthese von sehr großen HEN mit der hier vorgestellten

Methode besonders deutlich. Literaturverweise: [1] Luo, X., Wen, Q.-Y., Fieg, G., A hybrid genetic algorithm for synthesis of heat exchanger networks,

Computers and Chemical Engineering, 33, 1169-1181, 2009

[2] Fieg, G., Luo, X., Jezowski, J., A monogenetic algorithm for optimal design of large-scale heat exchanger

networks, Chemical Engineering and Processing, 48, 1506-1516, 2009

[3] Brandt, C., Fieg, G., Luo, X., Efficient synthesis of heat exchanger networks combining heuristic

approaches with a genetic algorithm, Heat and Mass Transfer, 47(8), 1019-1026, 2011

62

Optimierungsbasierte Entwurfsmethodik für Hybridprozesse aus Rektifikation und Pervaporation/Dampfpermeation

Mirko Skiborowski, Wolfgang Marquardt Aachener Verfahrenstechnik – Prozesstechnik, RWTH Aachen University,

Aachen/Deutschland

Für die Trennung azeotroper oder engsiedender Mehrstoffgemische werden in der industriellen Anwendung zumeist auf Destillation basierende Trennverfahren wie Druckwechselrektifikation, Extraktivrektifikation oder Heteroazeotroprektifikation eingesetzt. Zur Rückgewinnung der hierbei eingesetzten Hilfsstoffe sind zusätzliche Trennschritte erforderlich, die den Energiebedarf und die Kosten erhöhen. Membranverfahren wie Pervaporation und Dampfpermeation sind nicht durch die Dampf-Flüssig-Gleichgewichte limitiert und ermöglichen insbesondere die Überwindung von Destillationsgrenzen. Allerdings sind sie als alleiniges Trennverfahren bei scharfen Trennungen nur in seltenen Fällen ökonomisch, da für hohe Reinheiten die notwendigen Triebkräfte verschwindend klein werden. Die Kombination von Rektifikation und Membranverfahren stellt daher eine attraktive Alternative dar, die zu Einsparung in sowohl Kapital- als auch Betriebskosten führen kann. Allerdings wird der Einsatz solcher Hybridprozesse noch durch eine unzureichende Unterstützung durch geeignete Entwurfsverfahren limitiert. Der Entwurf eines solchen Hybridprozesses erfordert die Festlegung sowohl struktureller Parameter, wie der Anzahl und Verknüpfung der beteiligten Grundoperationen und deren Größe, sowie deren Betriebsparameter und stellt damit ein stark nichtlineares gemischt ganzzahliges Optimierungsproblem (MINLP) dar. Um dieses zu lösen wird die Anwendung des Synthese-Rahmenwerkes der AVT-PT[1] auf solche Hybridprozesse vorgeschlagen. Hierbei erfolgt zunächst ein Screening aller erstellten Prozessvarianten mittels thermodynamischer Shortcut-Verfahren gefolgt von einer rigorosen deterministischen Kostenoptimierung der aussichtsreichsten Varianten. Für die Modellierung der Rektifikation wird hierbei ein Gleichgewichtsstufenmodell verwendet, während für die Membranmodellierung eine Integration des ortsverteilten Modells über die Membranlänge mittels eines Kollokationsansatzes[2] erfolgt. Die optimale Verschaltung der Grundoperationen wird durch eine Überstrukturoptimierung bestimmt. Auf Grund der hohen Komplexität des resultierenden MINLP Optimierungsproblems ist es notwendig dieses in einem mehrstufigen Verfahren zu lösen[3]. Zur Veranschaulichung der Methodik wird in einer Fallstudie die Aceton-Isopropanol-Wasser Trennung mittels eines Hybridverfahrens ausgelegt. [1] W. Marquardt et al., Chin. J. Chem. Eng., 16(2008) 333-342 [2] U. Ascher et al., Computer Methods for Ordinary Differential Equations and Differential-

Algebraic Equations (1998) [3] M. Skiborowski et al., 3rd European Process Intensification Conference (2011), 37-45

63

Simulatorübergreifende Modellierung von Hydrierreaktoren

Oliver Slaby, Ingo Thomas

Linde AG, Engineering Division, Dr.-Carl-von-Linde-Str. 6-14, 82049 Pullach

Hydrierungen in verfahrenstechnischen Anlagen werden genutzt, um unerwünschte

ungesättigte Komponenten umzuwandeln. Dadurch können Produktbilanzen von

Anlagen optimiert und gewünschte Produktspezifikationen erreicht werden.

Im Rahmen der Anlagenplanung und des Designs werden numerische Simulationen

durchgeführt, um Vorhersagen über die Produktzusammensetzung einer Hydrierung

zu erhalten. Die Reaktorsysteme einschließlich der Kühlsysteme, die aufgrund der

exothermen Hydrierreaktion benötigt werden, werden auf Basis der

Simulationsergebnisse verfahrens- und sicherheitstechnisch ausgelegt.

Um Kosteneinsparungen mit Hilfe von genaueren und schneller verfügbaren

Auslegungsdaten zu erreichen, wurden detaillierte kinetische Modelle der beteiligten

Prozesse entwickelt. Durch die Einbindung der Modelle in Prozesssimulatoren können

die Abhängigkeiten innerhalb der Gesamtanlage effizient untersucht werden. Hierfür

wurde eine Modellierungsplattform entwickelt, die auf verschiedenen Systemen

verfügbar ist und eine schnelle und flexible Modellentwicklung erlaubt. In diesem

Rahmen können allgemeine nichtlineare Gleichungssysteme und differentiell-

algebraische Gleichungen mit Hilfe einer intuitiven Modellierungssprache formuliert

und gelöst werden. Die mit Hilfe der Modellierungsumgebung entwickelten Modelle

sind innerhalb verschiedener Simulatoren verfügbar und damit direkt in den

firmeninternen Workflow eingebunden. Dadurch werden Kosteneinsparungen bei der

Modellentwicklung durch Wiederverwendbarkeit und Modellsynergien erzielt.

64

Schnelle Bewertung von gekoppelten Reaktions- und Trennprozessen

Sebastian Recker, Wolfgang Marquardt

RWTH Aachen University – Aachener Verfahrenstechnik

Die Weichen für die Wirtschaftlichkeit einer chemischen Anlage werden in der Prozessentwicklung gestellt. Dazu werden üblicherweise verschiedene Prozessalternativen entworfen und hinsichtlich ihrer Betreibbarkeit, Wirtschaftlichkeit und Sicherheit untersucht. Der herkömmliche Entwurfsprozess beruht dabei vor allem auf Erfahrungswissen und der Evaluation einzelner Alternativen mittels Simulationsstudien. Um den Zeitraum für die Prozessentwicklung zu verkürzen ist es wünschenswert, schon zu einem frühen Zeitpunkt die vielversprechendsten Alternativen zu identifizieren und nur diese weiter zu verfolgen. Um eine fundierte Aussage über die Wirtschaftlichkeit einer Prozessvariante zu treffen und um insbesondere mehrere Prozessalternativen miteinander vergleichen zu können, muss für die jeweilige Alternative der optimale Betriebspunkt gefunden werden. Dieser optimale Betriebspunkt hängt von mehreren Betriebsparametern, wie z.B. Druck, Temperatur, Splitfaktoren in den Trennapparaten und Rückführungen von Stoffströmen ab. Vor allem die Festlegung der Rücklaufströme hat einen großen Einfluss auf die Wirtschaftlichkeit einer Anlage, da die Rohstoffkosten zumeist einen Großteil der Produktionskosten ausmachen [1]. Das Auffinden des optimalen Betriebspunktes lässt sich mit den üblichen Simulationswerkzeugen nur sehr aufwendig verwirklichen. Eine alternative Möglichkeit für den Prozessentwurf stellt die numerische Optimierung dar [2]. Dabei müssen für die Bestimmung des optimalen Betriebspunktes mathematische Modelle für die einzelnen Prozessbausteine, wie Reaktor- und Trennsysteme, erstellt werden. Bei detaillierten Modellen entstehen sehr große Gleichungssysteme, die auf Grund ihrer starken Nichtlinearität oft nur schwer zu lösen oder gar zu optimieren sind. Um die Komplexität der Modelle zu reduzieren können in einem ersten Schritt einfache Modelle verwendet werden, um zunächst die strukturelle Vielfalt der Prozessvarianten zu reduzieren. Diese Herangehensweise bietet den Vorteil einer sehr kompakten Formulierung der Optimierungsprobleme. Bei der Optimierung von Reaktoren mit Näherungsverfahren werden üblicherweise Gleichgewichtsreaktoren modelliert und das dafür nötige Reaktionsgleichgewicht mit Hilfe thermodynamischer Gleichungen bestimmt [3]. Der optimale Betriebspunkt kann jedoch von diesem Reaktionsgleichgewicht abweichen. Daher werden zur Bewertung von gekoppelten Reaktions- und Trennsystemen kinetische Modelle verwendet, welche das, durch eine Verschaltung beliebiger Reaktortypen, erreichbare Gebiet abbilden können. [1] J.M. Douglas, Conceptual Design of Chemical Processes, McGraw-Hill, New York 1988.

[2] S. Kossack, A. Refinius, S. Brüggemann, W. Marquardt, CIT 2007, 10, 79.

[3] C. Grossmann, E.Y. Kenig, CITplus 2007, 10(5), 38.

65

Eine neue Methodik für die verfahrenstechnische Auslegung von Apparaten mit überlagerter mehrkriterieller Optimierung unter

ökonomischen Kriterien Ernst, P., TU Hamburg-Harburg, Institut für Prozess- und Anlagentechnik, Hamburg;

Fieg, G., TU Hamburg-Harburg, Institut für Prozess- und Anlagentechnik, Hamburg;

Schlüter, F., ENCOS Engineering & Construction, Hamburg;

Green, V., ENCOS Engineering & Construction, Hamburg;

Die Auslegung von Apparaten für die Prozessindustrie erfolgt konventionell durch den kombinierten Einsatz von heuristischen Regeln, Short-Cut-Methoden und Flowsheet-Simulatoren. Die Arbeitsschritte der verfahrenstechnischen Auslegung eines Apparates, der Analyse der Sensitivität hinsichtlich der Veränderung von konstruktiven und betrieblichen Parametern sowie der einkriteriellen lokalen Optimierung werden im Verlauf der Apparateauslegung üblicherweise mehrfach iterativ durchlaufen. Die Untersuchungen der Sensitivität und die einkriteriellen lokalen Optimierungen lassen sich mit Hilfe der gängigen Flowsheet-Simulatoren bewältigen und sind in der industriellen Praxis Standard. Häufig werden mehrere Apparateauslegungen parallel betrachtet und manuell durch Veränderung betrieblicher und konstruktiver Parameter verbessert. Zweifellos erfüllen die auf diese Weise erhaltenen Apparateauslegungen die verfahrenstechnischen Spezifikationen sehr gut. Der manuelle Arbeitsaufwand ist wegen der Vielzahl an Arbeitsschritten und der parallelen Bearbeitung mehrerer Auslegungsalternativen aber hoch. Alle erzielten Apparateauslegungen lassen sich zusätzlich hinsichtlich der zu erwartenden Investitions- und Betriebskosten bewerten. Dennoch ist das Auslegungsergebnis oft unbefriedigend, weil die Apparateauslegung mit dem für den jeweiligen Anwendungsfall besten Kompromiss aus Investitions- und Betriebskosten gesucht ist. Mit der beschriebenen konventionellen Apparateauslegung wird der gesamte mögliche Lösungsraum, der durch die möglichen Investitions- und Betriebskosten aufgespannt wird, aber nur punktuell untersucht. Das Finden der Apparateauslegung mit dem besten Kompromiss aus beiden Kostenarten für den jeweiligen Anwendungsfall kann deshalb nicht garantiert werden. Aus diesem Grund bleiben erhebliche Kostensenkungspotentiale ungenutzt. Um das Finden von Apparateauslegungen mit sehr guten Kompromissen aus beiden Kostenarten bei einer gleichzeitigen deutlichen Reduktion des manuellen Bearbeitungsaufwandes garantieren zu können, wird eine neue Methodik vorgeschlagen, die die Apparateauslegung auf eine höhere Ebene stellt. Diese Methodik überlagert die verfahrenstechnische Auslegung von Apparaten mit einer

66

mehrkriteriellen Optimierung unter ökonomischen Kriterien. Dafür werden die manuellen Arbeitsschritte der konventionellen Apparateauslegung durch einen einzigen automatisierten und mehrkriteriellen Optimierungsschritt ersetzt. Für die mehrkriterielle Optimierung wurde ein maßgeschneidertes Lösungsverfahren entwickelt, das das Konzept evolutionärer Algorithmen um neuartige Funktionalitäten erweitert. Der mehrkriterielle Optimierungsansatz sowie die große globale Suchfähigkeit und die hohe Konvergenzgeschwindigkeit des Lösungsverfahrens ermöglichen erstmals das Ermitteln der Menge der Apparateauslegungen mit den besten Kompromissen aus beiden Kostenarten in nur einem Arbeitsschritt mit vergleichsweise geringem Rechenzeitbedarf. Das Lösungsverfahren eignet sich deshalb sehr gut für den Einsatz in der industriellen Praxis. Ihre Leistungsfähigkeit hat die Methodik an Beispielen aus dem industriellen, aber auch dem wissenschaftlichen Umfeld bereits mehrfach [1,2,3] bewiesen. Um dieses große ökonomische Potential der Methodik für die Prozessindustrie einfach und bequem nutzbar zu machen, wurde mit dem Adv:ProcessOptimizer zudem ein spezialisiertes Software-Werkzeug umgesetzt. Aufgrund des modularen Aufbaus können mit dem Adv:ProcessOptimizer in gleicher Weise auch vollständige Prozesse mit einer überlagerten mehrkriteriellen Optimierung verfahrenstechnisch ausgelegt werden. Der Beitrag teilt sich in drei Abschnitte. Zunächst wird die vorgeschlagene Methodik am Beispiel der Apparateauslegung dargestellt. Der zweite Abschnitt gibt einen Einblick in den Adv:ProcessOptimizer und das entwickelte Lösungsverfahren. Abschließend werden Ergebnisse aus der industriellen Praxis, die mit der vorgeschlagenen Methodik erzielt wurden, vorgestellt und mit den konventionell erhaltenen Apparateauslegungen verglichen. Literaturverweise: [1] M. Leipold; S. Gruetzmann; G. Fieg, An evolutionary approach for multi-objective dynamic optimization of

novel batch distillation, Comp. Chem. Eng. 33(4), S. 857-870, 2009 [2] Ch. Hiller; S. Storm; M. Leipold; G. Fieg, Multi objective optimization for an economical dividing wall

column design, Distillation&Absorption, Eindhoven, 2010 [3] P. Ernst; G. Fieg; X. Luo; X. Liu; F. Schlüter; V. Green, Optimization of a shell & tube heat exchanger with

an evolutionary algorithm using relative cost function, World Congress on Engineering and Technology (CET), Shanghai, 2011

67

Entwicklung eines Modellierungsansatzes für Rektifikationskolonnen mit Anstaupackungen

Ö. Yildirim, U. Brinkmann, E. Y. Kenig

Lehrstuhl für Fluidverfahrenstechnik, Universität Paderborn

Die Destillation ist das am häufigsten angewendete thermische Trennverfahren in der

chemischen und petrochemischen Industrie. Wegen des hohen Energieeintrags

besteht stets das Interesse an der Intensivierung und Optimierung dieses Verfahrens.

Ein wesentliches Optimierungspotenzial weisen die Neu- und Weiterentwicklung der

Kolonneneinbauten auf, welche in erster Linie die notwendige Phasengrenzfläche zu

Verfügung stellen [1].

Ein neuer Ansatz für die

Intensivierung des Stofftransports

liegt in der Entwicklung von

sogenannten „Anstaupackungen“.

Diese stellen eine Kombination aus

zwei Lagen industriell typischer

strukturierter Packungen mit

unterschiedlicher geometrischer

Oberfläche dar. Die untere Lage

(Anstaulage) weist dabei eine

höhere geometrische Oberfläche auf als die obere (Abscheidelage) (Abb.1). Diese

neuartige Packung wird üblicherweise oberhalb des Flutpunktes der Anstaulage

betrieben. Dabei bildet sich oberhalb dieser Lage eine Sprudelschicht, die durch eine

intensive Vermischung der beteiligten Phasen geprägt ist. Im oberen Teil der

Abscheidelage stellt sich ein Filmregime ein. Insbesondere durch die intensive

Durchmischung der beteiligten Phasen wird eine hohe Trennleistung erreicht. Der

höhere Flüssigkeitsinhalt kann zudem für Reaktivrektifikationsverfahren von Vorteil

sein [3].

Üblicherweise werden für die Auslegung von Stofftrennapparaten Stufenmodelle

verwendet. Dabei werden Kolonnen in Segmente (sog. Stufen) unterteilt, für die jeweils

Massen- und Energiebilanzen aufgestellt werden. Für die Beschreibung der einzelnen

Abbildung 5. Elemente einer Anstaupackung(Abscheidelage Montz-Pak B1-250M und Anstaulage B1-750T mit Ablauftöpfchen) [2]

68

Stufen kann der sogenannte rate-based Ansatz verwendet werden, der insbesondere

dann an Bedeutung gewinnt, wenn die Besonderheiten der eingesetzten Einbauten

(z.B. die Geometrie) direkt berücksichtigt werden müssen. In vorangegangen Arbeiten

wurde ein solcher Ansatz für die Berechnung von Anstaupackungen vorgeschlagen

[4].

In dieser Arbeit wird diese Berechnungsmethode weiterentwickelt, um die

Besonderheiten der unterschiedlichen fluiddynamischen Regimes in der Beschreibung

des Stofftransports direkt berücksichtigen zu können. Dadurch wird es möglich sein die

Realität in einem Anstaupackungselement über die Höhe genauer zu beschreiben. Der

hier vorgeschlagene Ansatz wird durch eine iterative Berechnungsmethode realisiert.

Zunächst werden alle Anstaupackungselemente als Gleichgewichtsstufen betrachtet

und die Trennleistung wird mit experimentell ermittelten HETP-Werten berücksichtigt.

Dadurch ergeben sich die Eingangsgrößen für den zweiten Schritt (Gas- und

Flüssigkeitsbelastung und Stoffeigenschaften). Hierfür wird auf ein zuvor entwickeltes

Fluiddynamikmodell zurückgegriffen, welches auf der Basis von experimentellen

Untersuchungen mit dem Testsystem Wasser/Luft bei Umgebungsbedingungen

aufgestellt wurde und in der Lage ist, unterschiedliche Regimes entlang einer Kolonne

mit Anstaupackungen zu identifizieren [5]. Für jedes Anstaupackungselement können

damit die Höhen der einzelnen fluiddynamischen Bereiche ermittelt werden. In dem

nächsten Teilschritt können die Stofftransportcharakteristiken in den festgelegten

Bereichen bestimmt werden, wodurch sich neue Eingangsparameter für die

Berechnung der Fluiddynamik in dem zweiten Schritt ergeben. Fluiddynamik und

Stofftransport werden abwechselnd solange bestimmt bis festgelegte Toleranzen

erreicht werden. Für die Berechnung der genannten Stofftransportcharakteristiken sind

Modelle vorgeschlagen, die in weiteren Arbeiten validiert werden sollen.

Referenzen [1] M. Jödecke, Ž. Olujić: CIT plus, 10 (2008), 32-34. [2] M. Jödecke, T. Friese, G. Schuch, B. Kaibel and H. Jansen: IChemE Symp. Ser., 152 (2006), 786-789 [3] C. Miller, G. Kaibel, R. Benfer: Chem. Ing. Tech., 76 (2004), 730-733. [4] U. Brinkmann, A. Hoffmann, B. Kaibel, M. Jödecke, E.Y. Kenig: Chem. Ing. Tech. 81 (2009), 1085. [5] U. Brinkmann, A. Hoffmann, B. Kaibel, M. Jödecke, E.Y. Kenig: Jahrestreffen der ProcessNet-Fachausschüsse Fluidverfahrenstechnik und Kristallisation, Dortmund, 2009.

69

Model-Based Experimental Analysis of Complex Multiphase Reaction Systems

Nimet Kerimoglu, Adel Mhamdi, Wolfgang Marquardt

RWTH Aachen, Aachen/Deutschland

It is important to establish exact process models for model-based design, optimization and process control. Within these necessary process models, the reaction itself is often the most complex part w.r.t. model identification. This is mainly caused by the high number of (potentially) unknown process steps. In multiphase reactive systems for instance, various kinetic phenomena, including heat and mass transfer, diffusion and multiple reactions are occurring at the same time and may interact in unforeseen ways. For exact process models, however, a detailed identification of all these kinetic phenomena is necessary. In order to identify such mechanistically correct models for complex reaction systems, the so called MEXA (Model-based Experimental Analysis) methodology has been developed at Aachener Verfahrenstechnik – Process Systems Engineering, RWTH Aachen University, over the last 10 years. In this methodology, identification of models is divided into simpler sub-models which substantially reduce the complexity and computational load. For a homogeneous reaction scheme, it can be shown as follows. As a first step flux data are determined from experimental data using mass balances of measured species. Next, together known stoichiometric information, reaction rates are calculated. Finally several competing reaction rate models are tested in order to obtain the best model alternative with parameter values used as initial values for a final simultaneous identification step, where complete model is solved once to obtain statistically sound parameter values.

Due to the efficient product separation and catalyst immobilization, multi-phase catalytic systems are favoured in industrial applications. Nevertheless, it is usually difficult to decouple reaction and mass transfer kinetics such that the experimental determination of reaction kinetics is masked by mass transfer effects. A novel incremental identification methodology tailored to homogeneous reaction systems and extended to multi-phase systems in previous works allows for the decoupling of reaction kinetics and mass transfer and thus avoids the uncertainty in reaction kinetics identification by construction. While the method has been demonstrated in a simulation case study before, it is applied in a real experimental study of a multiphase system for the first time in this work.

70

DECHEMA

GesellschaftfürChemischeTechnik

undBiotechnologiee.V.

Theodor-Heuss-Allee25

60486FrankfurtamMain

Tel.: 069/7564-243

Fax: 069/7564-116

E-Mail: [email protected]

www.processnet.org/paat2011